Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Apache Impala 中是否有相当于 Hive 的“爆炸”功能的函数?
Hive的函数explode是记录在这里 https cwiki apache org confluence display Hive LanguageManual UDF LanguageManualUDF Built inTable G
hive
explode
impala
sqlfunction
将数据从 .txt 文件加载到 Hive 中以 ORC 形式存储的表
我有一个数据文件位于 txt格式 我正在使用该文件将数据加载到 Hive 表中 当我将文件加载到类似表中时 CREATE TABLE test details txt visit id INT store id SMALLINT STORE
Hadoop
hive
hive 中的授予权限在 hdp2.2 上不起作用
我正在 CentOS 6 5 上使用 Ambari 设置来试验 HDP2 2 集群 但在运行 Hive GRANT 查询时遇到问题 例如 一个查询 grant select on Tbl1 to user root 给了我一个看起来像这样的
hive
hortonworksdataplatform
MetaStore
ambari
scala/spark 代码不允许在 hive 中添加列
如果源数据有新列 我尝试在 Hive 表中添加一列 所有新列的检测都运行良好 但是 当我尝试将列添加到目标表时 我收到此错误 for f lt df schema fields if f name chk spark sqlContext
scala
apachespark
hive
是否可以通过编写单独的mapreduce程序并行执行Hive查询?
我问了一些关于提高 Hive 查询性能的问题 一些答案与映射器和减速器的数量有关 我尝试使用多个映射器和减速器 但在执行中没有看到任何差异 不知道为什么 可能是我没有以正确的方式做 或者我错过了其他东西 我想知道是否可以并行执行 Hive
MapReduce
hive
Hive 聚集在多个列上
据我所知 当配置单元表聚集在一列上时 它会执行该分桶列的哈希函数 然后将该行数据放入其中一个桶中 每个桶都有一个文件 即如果有 32 个桶 那么 hdfs 中就有 32 个文件 将 clustered by 放在多个列上意味着什么 例如 假
Hadoop
hive
buckets
使用 MySQL 作为元存储从 HIVE 查询元数据
我正在寻找一种使用 HiveQL 命令查询 HIVE 数据元数据的方法 我配置了一个 MySQL 元存储 但需要通过 HIVE 命令查询元数据 因为然后我想通过 ODBC 连接到 HIVE 系统来访问数据 要从 Hive 查看它们 必须使用
mysql
hive
ODBC
metadata
HiveQL
Spark引擎执行SQL时如何获取hive UDF中Spark的partitionId或taskContext?
例如我们用Spark引擎执行下面的SQL 我们需要my udf row 返回 Spark 中的分区 id add jar hdfs dir udf udf jar create temporary function my udf as co
apachespark
hive
apachesparksql
userdefinedfunctions
为 Spark Thrift 服务器提供仓库目录的路径
我已经设置了 Spark 集群 并且成功通过 Spark SQL 连接器连接 Tableau 我从 Spark shell 创建了表 并使用 saveAsTable 如何访问从 Tableau 保存的表 启动spark thrift服务器时
apachespark
hive
apachesparksql
tableauapi
sparkthriftserver
Aws Athena - 重命名列名称
我正在尝试更改 AWS Athena 表中的列名称 从old name to new name 普通的DDL命令不会影响表 它们无法执行 是否可以更改列名而不从头开始删除并重新创建表 我错了 雅典娜使用HIVE DDL语法所以正确的命令是
amazonwebservices
hive
DDL
amazonathena
错误 hive.HiveConfig:无法加载 org.apache.hadoop.hive.conf.HiveConf。确保 HIVE_CONF _DIR 设置正确
我正在尝试将数据从 sqoop 导入到 hive MySQL use sample create table forhive id int auto increment firstname varchar 36 lastname varch
Hadoop
hive
SQOOP
Cloudera
我们如何确定总数? Hive 表的桶数
我对 hadoop 有点陌生 根据我的知识桶是固定的 hive 表中的分区数和 hive 使用编号 减速机数量与总数量相同创建表时定义的存储桶数量 那么谁能告诉我如何计算总数 Hive 表中的桶数 有没有计算桶总数的公式 让我们看一个场景
hive
Numbers
formula
buckets
Hive NVL 不适用于列的日期类型 - NullpointerException
我正在使用 HDFS 上的 MapR Hive 发行版并面临以下问题 如果表的列类型是 日期 类型 则NVL https cwiki apache org confluence display Hive LanguageManual UDF
Java
Hadoop
NullPointerException
hive
无法在 Presto 中读取数据 - 在 Hive 中可以读取数据
我有一个 Hive DB 我创建了一个与 Parquet 文件类型兼容的表 CREATE EXTERNAL TABLE default table date date udid string message token string PAR
Hadoop
hive
partitioning
parquet
presto
为什么我们需要将外部表移动到托管 Hive 表?
我是 Hadoop 新手 正在学习 Hive 在 Hadoop 权威指南第 3 版中 第 12 页 第428章 最后一段 我不明白下面关于 HIVE 中外部表的段落 一种常见的模式是使用外部表访问存储在 HDFS 中的初始数据集 由另一个进
Hadoop
hive
externaltables
适用于 Python 3.x 的 Hive 客户端
是否可以使用 Python 3 x 连接到 hadoop 并运行 hive 查询 我正在使用Python 3 4 1 我发现可以按照这里写的方式完成 https cwiki apache org confluence display Hiv
python
Hadoop
python3x
hive
在蜂巢中出现错误
当我连接到 ireport 时 如果说在 hive shell 中显示表 则会出现此错误 元数据错误 java lang RuntimeException 无法实例化 org apache hadoop hive metastore Hiv
Hadoop
ireport
hive
将 Apache Zeppelin 连接到 Hive
我尝试将我的 apache zeppelin 与我的 hive 元存储连接起来 我使用 zeppelin 0 7 3 所以没有 hive 解释器 只有 jdbc 我已将 hive site xml 复制到 zeppelin conf 文件夹
Hadoop
apachespark
hive
apachezeppelin
Hive:在查询中将 array
转换为 array
我有两张桌子 create table a 1 array
Arrays
Hadoop
hive
HiveQL
Spark on Hive SQL 查询错误 NoSuchFieldError: HIVE_STATS_JDBC_TIMEOUT
针对 Hive 2 1 0 提交 Spark 1 6 0 SQL 应用程序时出现错误 Exception in thread main java lang NoSuchFieldError HIVE STATS JDBC TIMEOUT a
Hadoop
apachespark
hive
apachesparksql
1
2
3
4
5
6
...54
»