Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
通过Oozie命令行指定多个过滤条件
我正在尝试通过命令行搜索一些特定的 oozie 作业 我使用以下语法进行相同的操作 oozie jobs filter status RUNNING status KILLED 但是 该命令仅返回正在运行的作业 而不是已杀死的作业 需要帮助
Hadoop
oozie
没有函数映射到名称“coord:formatTime”
我正在尝试使用 oozie 中的以下内容获取当前时间戳
Hadoop
oozie
Oozie shell 操作:exec 和文件标签
我是 Oozie 的新手 我读过一些 Oozie shell 操作示例 但这让我对某些事情感到困惑 我见过一些例子 但没有
oozie
如何捕获 Oozie Spark 输出
有没有办法捕获spark的输出然后将其输入到shell上 我们当前正在使用 scala 创建 jar 文件 并希望我们的 Spark 输出成为 shell 输入 我的想法是使用 wf actionData spark XXXX var 我只
scala
apachespark
oozie
sqoop 通过 oozie 导出失败
我正在尝试将数据导出到mysql from hdfs通过sqoop 我可以通过 shell 运行 sqoop 并且它工作正常 但是当我通过调用oozie 它出现以下错误并失败 我还包括了罐子 没有描述性日志 sqoop脚本 export c
Hadoop
SQOOP
oozie
有没有办法在 Oozie 中全局使用 config-default.xml ?
来自文档 https oozie apache org docs 4 1 0 WorkflowFunctionalSpec html a4 Parameterization of Workflows config default xml必须
oozie
将 Spark 添加到 Oozie 共享库
默认情况下 Oozie 共享 lib 目录提供 Hive Pig 和 Map Reduce 的库 如果我想在 Oozie 上运行 Spark 作业 最好将 Spark lib jar 添加到 Oozie 的共享库 而不是将它们复制到应用程序
Hadoop
apachespark
oozie
处理 oozie 工作流程中的循环
我有一个 oozie 用例 用于检查输入数据可用性并根据数据可用性触发 MapReduce 作业 所以我编写了一个 shell 脚本来检查输入数据 并在 oozie 中为其创建了一个 ssh 操作 输入数据检查的重试次数和重试间隔应该是可配
Hadoop
oozie
Oozie SSH 操作
Oozie SSH 操作问题 Issue 我们正在尝试在集群的特定主机上运行一些命令 我们为此选择了 SSH Action 我们面对这个 SSH 问题已经有一段时间了 这里真正的问题可能是什么 请指出解决方案 logs AUTH FAILE
Hadoop
oozie
一个目录下可以有两个oozieworkflow.xml文件吗?
一个目录下可以有两个oozieworkflow xml文件吗 如果是这样 我如何指示 oozie runner 运行哪一个 您可以有两个工作流程文件 只需为它们指定唯一的名称 然后您可以通过设置oozie wf application pa
Hadoop
oozie
如何将 Jar 文件传递到 OOZIE shell 节点中的 shell 脚本
您好 我在 oozie shell 操作工作流程中执行的脚本中运行 java 程序时遇到以下错误 Stdoutput 2015 08 25 03 36 02 636 INFO pool 1 thread 1 ProcessExecute j
Java
shell
Hadoop
HDFS
oozie
JA017:无法查找已启动的 hadoop 作业 ID
当我在Hue的Oozie编辑器中提交mapreduce作业时 如何解决这个问题 JA017 无法查找与操作 0000009 150711083342968 oozie root W mapreduce f660 关联的已启动 hadoop
Hadoop
MapReduce
oozie
HUE
我可以动态重命名oozie作业名称吗
我们有一个 Hadoop 服务 其中有多个应用程序 我们需要通过重新执行相同的工作流程来处理每个应用程序的数据 这些计划在一天的同一时间执行 问题是 当这些作业运行时 很难知道作业正在为哪个应用程序运行 失败 成功 当然 我可以打开作业配置
Hadoop
oozie
如何跟踪 oozie 作业日志?
我通常使用以下命令检查日志 oozie job oozie http localhost 8080 oozie log 14 20090525161321 oozie joe 这将打印所有内容 不过我只想看到最后几行 我如何追踪 Oozie
Hadoop
oozie
oozie Sqoop 操作无法将数据导入到 hive
我在执行 oozie sqoop 操作时遇到问题 在日志中我可以看到 sqoop 能够将数据导入到临时目录 然后 sqoop 创建 hive 脚本来导入数据 将临时数据导入配置单元时失败 在日志中我没有收到任何异常 下面是我正在使用的 sq
Hadoop
hive
Bigdata
SQOOP
oozie
Oozie shell 操作未作为提交用户运行
我编写了一个 Oozie 工作流程 它运行 BASH shell 脚本来执行一些配置单元查询并对结果执行一些操作 该脚本运行但在访问某些 HDFS 数据时抛出权限错误 提交 Oozie 工作流的用户具有权限 但脚本以纱线用户身份运行 是否可
shell
Hadoop
oozie
Sqoop 自由格式查询导致 Hue/Oozie 中的参数无法识别
我正在尝试使用自由格式查询运行 sqoop 命令 因为我需要执行聚合 它作为 Oozie 工作流程通过 Hue 界面提交 以下是命令和查询的缩小版本 处理命令时 query 语句 用引号引起来 会导致查询的每个部分被解释为无法识别的参数 如
Hadoop
SQOOP
oozie
HUE
Oozie Shell Action 的 stdout 和 stderr 输出
在 Oozie 站点中 它说 Shell 操作的 stdout 和 stderr 输出被重定向到运行 shell 命令的 Oozie Launcher 映射减少作业任务 STDOUT 谁能告诉我具体应该去哪里看 Oozie 在 启动器 中运
oozie
如何在oozie作业中指定多个libpath?
我的 oozie 工作使用 2 个 jarx jar and y jar以下是我的 job properties 文件 oozie libpath lib oozie use system libpath true 当两个 jar 都位于
Hadoop
jar
MapReduce
oozie
子任务中的 AirFlow dag id 访问
我有一个包含三个 bash 任务的 DAG 计划每天运行 我想在所有 bash 脚本中访问 dag 实例的唯一 ID 可能是 PID 有什么办法可以做到这一点吗 我正在寻找与 Oozie 类似的功能 我们可以在工作流 xml 或 java
oozie
airflow
1
2
3
»