Spark-shell 使用不同版本的 Scala。使用 homebrew 安装 scala 和 apache-spark

2024-05-27

我使用 homebrew 安装了 scala 和 apache-spark,它安装了 scala 2.12.4 和 apache-spark 2.2.0。但是,如果您结帐spark-shell -version它使用不同的 scala 版本。

如何设置 Spark-shell 使用已安装的 scala 版本?有没有办法在 Homebrew 安装过程中设置 apache-spark 使用的 scala 版本?


TL;DR你不能。

两个问题:

  • Spark(它并不是真正特定于 Spark)将使用用于编译它的 Scala 版本。机器上安装的 Scala 编译版本根本不相关。
  • Spark 尚不支持 Scala 2.12,因此无法重新编译。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Spark-shell 使用不同版本的 Scala。使用 homebrew 安装 scala 和 apache-spark 的相关文章

随机推荐