I have spark.cores.max
set to 24
[3 个工作节点],但是如果我进入我的工作节点并看到只有一个进程 [command = Java] 正在运行,该进程会消耗内存和 CPU。我怀疑它没有使用全部 8 个核心(在m2.4x large
).
怎么知道号码?
You can see the number of cores occupied on each worker in the cluster under the Spark Web UI:
![Spark Web UI](https://i.stack.imgur.com/AY3Wh.png)
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)