如何理解Standalone模式下,Spark资源分配是粗粒度的? admin • 2023年11月30日 am3:26 • Spark • 阅读 80 spark默认情况下资源分配是粗粒度的,也就是说程序在提交时就分配好资源,后面执行的时候使用分配好的资源,除非资源出现了故障才会重新分配。 比如Spark shell启动,已提交,一注册,哪怕没有任务,worker都会分配资源给executor。 发布者:admin,如若转载,请注明出处:https://ai1024.vip/36848.html