我正在尝试构建一个继承自 SQLContext 的 Hive Context 。
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
我收到以下错误:
error: object hive is not a member of package org.apache.spark.sql
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
从自动补全中我可以清楚地看到 hive 不存在。
关于如何解决这个问题有什么想法吗?这是可用的 Spark SQL 文档中的示例。
谢谢
使用sbt:
您必须在依赖项中包含 Spark-Hive。
为此,请在 .sbt 文件中添加以下行:
libraryDependencies += "org.apache.spark" %% "spark-hive" % "1.5.0"
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)