1. 首页
  2. 大数据
  3. Spark

如何理解Standalone模式下,Spark资源分配是粗粒度的?



spark默认情况下资源分配是粗粒度的,也就是说程序在提交时就分配好资源,后面执行的时候使用分配好的资源,除非资源出现了故障才会重新分配。
比如Spark shell启动,已提交,一注册,哪怕没有任务,worker都会分配资源给executor。

发布者:admin,如若转载,请注明出处:https://ai1024.vip/36848.html

QR code
//