Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
错误 hive.HiveConfig:无法加载 org.apache.hadoop.hive.conf.HiveConf。确保 HIVE_CONF _DIR 设置正确
我正在尝试将数据从 sqoop 导入到 hive MySQL use sample create table forhive id int auto increment firstname varchar 36 lastname varch
Hadoop
hive
SQOOP
Cloudera
Spark 写入 hdfs 无法使用 saveAsNewAPIHadoopFile 方法
我在 CDH 5 2 0 上使用 Spark 1 1 0 并试图确保我可以读取和写入 hdfs 我很快意识到 textFile 和 saveAsTextFile 调用旧的 api 并且似乎与我们的 hdfs 版本不兼容 def testHD
Hadoop
HDFS
apachespark
Cloudera
YARN UNHEALTHY 节点
在我们的 YARN 集群已满 80 的情况下 我们看到一些纱线节点管理器被标记为不健康 在深入研究日志后 我发现这是因为数据目录的磁盘空间已满 90 出现以下错误 2015 02 21 08 33 51 590 INFO org apach
Hadoop
distributedcomputing
Cloudera
hadoopyarn
clouderacdh
Impala 表中的压缩
我想了解 Impala 表中的压缩 但找不到可供研究的材料 有哪些不同的技术以及我在哪里可以找到研究它的材料 主要技术为compaction是为了避免small file problem这取决于您的用例 例如 您可能有一个将小文件写入的进程
Cloudera
impala
Hive:转换“yyyy-MM-dd'T'HH:mm:ss.SSS'Z'”中缺少秒数的字符串日期时间
我使用以下代码将字符串日期时间变量转换为日期时间 但转换后的字符串缺少 SSS 部分 使用的代码 cast FROM UNIXTIME UNIX TIMESTAMP oldtime yyyy MM dd T HH mm ss SSS Z y
datetime
Hadoop
hive
HiveQL
Cloudera
Hadoop YARN 作业陷入映射 0% 并减少 0%
我正在尝试运行一个非常简单的作业来测试我的 hadoop 设置 所以我尝试使用 Word Count Example 它陷入了 0 所以我尝试了一些其他简单的作业 并且每个作业都陷入了困境 52191 0003 14 07 14 23 55
Hadoop
MapReduce
Cloudera
hadoopyarn
如何使用 CDH4 和 Yarn 查看 Hadoop 作业历史记录和日志?
我使用 Yarn 下载了 Hadoop 的 CDH4 tar 作业运行良好 但我不知道在哪里查看作业日志 在 MRv1 中 我只需访问 JobTracker Web 应用程序 它就有工作历史记录 也可以从这里访问各个作业的日志 或者转到lo
configuration
Hadoop
Cloudera
hadoopyarn
如何解决hadoop中的“文件只能复制到0个节点,而不是1个”?
我有一个简单的 hadoop 作业 可以抓取网站并将其缓存到 HDFS 映射器检查 HDFS 中是否已存在 URL 如果存在 则使用它 否则下载页面并将其保存到 HDFS 如果下载页面时遇到网络错误 404 等 则完全跳过 URL 不会写入
Hadoop
Cloudera
无法编译 WordCount.java
mark maestro1 usr lib hadoop wordcount classes javac classpath usr lib hadoop hadoop common 2 0 0 cdh4 0 1 jar usr lib h
Java
javac
Cloudera
wordcount
HDFS 作为 cloudera 快速入门 docker 中的卷
我对 hadoop 和 docker 都很陌生 我一直致力于扩展 cloudera quickstart docker 镜像 docker 文件 并希望从主机挂载一个目录并将其映射到 hdfs 位置 以便提高性能并将数据保存在本地 当我在任
Hadoop
Docker
HDFS
Cloudera
Bigdata
VM cloudera - 用户cloudera和权限?
我下载并安装了 VM Cloudera 4 4 来使用 Hadoop 我已经在我的工作平台上建立了一个集群 所以我知道一点 hadoop 是如何工作的 所以我认为我的问题来自于我对linux以及他的用户和群体的误解 使用蜂巢 我尝试使用 s
Hadoop
permissions
hive
Cloudera
Cloudera 5.1下作业在LocalJobRunner中保持运行
需要一些快速帮助 我们的作业在 MapR 下运行良好 但是当我们在 Cloudera 5 1 上启动相同的作业时 它继续以本地模式运行 我确信这是某种配置问题 它是哪个配置设置 14 08 22 12 16 58 INFO mapreduc
Hadoop
MapReduce
Cloudera
clouderacdh
使用主机系统上的客户端访问在虚拟机中运行的 HBase
我尝试使用客户端程序将一些数据写入hbase HBase Hadoop 在 Cloudera ubuntu 的预配置虚拟机中运行 客户端运行在托管虚拟机的系统上 并直接在虚拟机中运行客户端 所以现在想使用vm外的客户端来访问vm上的服务器
Hadoop
Hbase
VirtualBox
Cloudera
HDFS 文件系统的 URL
我在 HDFS 中有一些数据 user Cloudera Test 我可以通过运行很好地查看记录hdfs dfs cat Test 现在同一个文件 我需要在 scala 中将其读取为 RDD 我在 scala shell 中尝试了以下操作
scala
Hadoop
Cloudera
Bigdata
如何在Hadoop中设置数据块大小?改变它有好处吗?
如果我们可以更改 Hadoop 中的数据块大小 请告诉我如何操作 更改块大小是否有利 如果是 请告诉我为什么以及如何更改 如果没有 请告诉我为什么以及如何 您可以随时更改块大小 除非dfs blocksize参数在 hdfs site xm
Hadoop
HDFS
Bigdata
Cloudera
hortonworksdataplatform
hdfs - ls:本地异常失败:com.google.protobuf.InvalidProtocolBufferException:
我正在尝试使用以下内容列出我在 hdfs 中的目录 ubuntu ubuntu hadoop fs ls hdfs 127 0 0 1 50075 ls Failed on local exception com google protob
Hadoop
HDFS
Cloudera
将 Solr HDFS 数据复制到另一个集群
我有一个 solr 云 v 4 10 安装 位于 Cloudera CDH 5 4 2 HDFS 之上 有 3 个 solr 实例 每个实例托管每个核心的一个分片 我正在寻找一种将 solr 数据从生产集群增量复制到开发集群的方法 有 3
Hadoop
Solr
HDFS
Cloudera
在没有cloudera manager的情况下安装cloudera impala
请提供在没有cloudera manager的情况下在ubuntu中安装imapala的链接 无法使用官方链接安装 无法使用这些查询找到 impala 包 sudo apt get install impala Binaries for d
Hadoop
hive
Cloudera
impala
是否可以更改 HIVE 中的分区元数据?
这是我之前提出的问题的延伸 如何比较具有不同数据类型组的两列 https stackoverflow com questions 58240566 how to compare two columns with different data
sql
Hadoop
hive
Cloudera
hivemetastore
如何使用 HUE 查找 CDH(Cloudera 的发行版,包括 Apache Hadoop)版本
我只能访问 HUE 并且正在尝试使用 HUE 找出 CDH 版本 你能帮我吗 我没有找到直接的答案 但这就是我在 Hue 中找到 CDH 版本的方法 我的CDH版本是5 14 2
Cloudera
clouderacdh
HUE
1
2
3
4
»