我是 Apache-Spark 的新手,尝试从我的应用程序 (tomcat) 创建 SparkConf,我注意到以下错误
ERROR [RMI TCP Connection(4)-127.0.0.1] DiskBlockManager.logError(91) | Failed to create local dir in /opt/software/apache-tomcat-7.0.70/temp. Ignoring this directory.
java.io.IOException: Failed to create a temp directory (under /opt/software/apache-tomcat-7.0.70/temp) after 10 attempts!
at org.apache.spark.util.Utils$.createDirectory(Utils.scala:285)
我还没有配置过SPARK_LOCAL_DIRS在spark-env.sh中。按照默认安装,它已被注释掉。
我认为我的问题与apache Spark,“无法创建任何本地目录” https://stackoverflow.com/questions/26594312/apache-spark-failed-to-create-any-local-dir但不太确定。我应该将 SPARK_LOCAL_DIRS 配置为每个主/工作节点中的有效目录吗?如果是这样,该目录必须拥有的最小磁盘空间是多少?
取决于您的应用程序大小、您期望运行的作业数量、每个工作线程生成的日志量、您要处理的数据量(中间洗牌数据将存储在此处)、缓存数量和您要处理的数据量缓存等等。
我在我的应用程序中配置了 100+GB 的空间,这当然取决于我刚才提到的参数。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)