Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
使用 scala 在 Flink 中进行实时流预测
弗林克版本 1 2 0斯卡拉版本 2 11 8 我想使用 DataStream 来使用 scala 中的 flink 模型进行预测 我在使用 scala 的 flink 中有一个 DataStream String 其中包含来自 kafka
scala
apacheflink
datascience
flinkstreaming
flinkml
我想使用 Flink 的 Streaming File Sink 写入 ORC 文件,但它无法正确写入文件
我正在从 Kafka 读取数据并尝试将其以 ORC 格式写入 HDFS 文件系统 我使用了他们官方网站上的以下链接参考 但我可以看到Flink为所有数据写入完全相同的内容并生成这么多文件并且所有文件都可以103KB https ci apa
apacheflink
flinkstreaming
flinkbatch
2022年Flink可以支持什么Java版本?
假设我开始一个新的 Flink Java 项目 如果我寻找 稳定的 Flink Java 生产体验 我应该使用哪个版本 官方docs https nightlies apache org flink flink docs master do
Java
apacheflink
Flink 在 Kubernetes 上的部署和 Native Kubernetes 有什么不同
黑白的主要区别是什么原生 Kubernetes https ci apache org projects flink flink docs stable ops deployment native kubernetes html and 库
Kubernetes
apacheflink
flinkstreaming
Flink Kafka - 如何使应用程序并行运行?
我正在 Flink 中创建一个应用程序 读取某个主题的消息 对其进行一些简单的处理 将结果写入不同的主题 我的代码确实有效 然而它不并行运行我怎么做 看来我的代码只在一个线程 块上运行 在 Flink Web 仪表板上 应用程序进入运行状态
Java
parallelprocessing
ApacheKafka
apacheflink
《使用 Apache Flink 进行流处理》如何从 IntelliJ 运行书籍代码?
如中所述这个帖子 https stackoverflow com questions 61043860 how to run first example of apache flink我无法成功运行 使用 Apache Flink 进行流处
scala
intellijidea
apacheflink
flinkstreaming
Flink - 无法从检查点恢复
我使用一个作业管理器和两个任务管理器在 kubernetes 上运行集群 我通过在作业运行时杀死一个任务管理器 Pod 来测试检查点机制 我在作业管理器和重新启动的任务管理器上遇到以下异常 工作经理例外 java lang Exceptio
apacheflink
rocksdb
streamprocessing
Flink从hdfs读取数据
我是 Flink 的新生 我想知道如何从 hdfs 读取数据 有人可以给我一些建议或一些简单的例子吗 谢谢你们 如果您的文件采用文本文件格式 则可以使用 ExecutionEnvironment 对象中的 readTextFile 方法 这
HDFS
apacheflink
Apache Flink 中的并行度
我可以为 Flink 程序中任务的不同部分设置不同的并行度吗 例如 Flink 如何解释以下示例代码 两个自定义实践者MyPartitioner1 MyPartitioner2 将输入数据划分为两个4和2个分区 partitionedDat
apacheflink
使用 GlobalWindow 在 Beam 中进行状态垃圾收集
Apache Beam 最近推出了状态细胞 https beam apache org blog 2017 02 13 stateful processing html 通过StateSpec和 StateId注释 在 Apache Fli
googleclouddataflow
apacheflink
ApacheBeam
当我重新运行 Flink 消费者时,Kafka 再次消费最新消息
我在用 Scala 编写的 Apache Flink API 中创建了一个 Kafka 消费者 每当我从某个主题传递一些消息时 它就会及时接收它们 但是 当我重新启动使用者时 它不会接收新的或未使用的消息 而是使用发送到该主题的最新消息 这
ApacheKafka
apacheflink
Flink 窗口:聚合并输出到接收器
我们有一个数据流 其中每个元素都是这种类型 id String type Type amount Integer 我们想要聚合这个流并输出总和amount每周一次 目前的解决方案 Flink 管道示例如下所示 stream keyBy ty
apacheflink
flinkstreaming
将 flink 从 1.10 升级到 1.11,遇到错误“找不到执行应用程序的 ExecutorFactory”
java lang IllegalStateException No ExecutorFactory found to execute the application at org apache flink core execution D
apacheflink
Apache Flink 动态设置 JVM_OPT env.java.opts
是否可以设置自定义 JVM 选项env java opts提交作业时未在作业中指定conf flink conf yaml file 我问的原因是我想在 log4j 中使用一些自定义变量 我也在 YARN 上运行我的工作 我已经使用 CLI
apacheflink
Flink中为什么DataStream不支持聚合
我是 Flink 的新手 有时 我想在 DataStream 上进行聚合 而不需要先执行 keyBy 为什么 Flink 不支持 DataStream 上的聚合 sum min max 等 谢谢你 艾哈迈德 Flink 支持非 keyed
apacheflink
flinkstreaming
Apache Flink - “keyBy”中的异常处理
由于代码错误或缺乏验证 进入 Flink 作业的数据可能会触发异常 我的目标是提供一致的异常处理方式 我们的团队可以在 Flink 作业中使用这种方式 而不会导致生产中出现任何停机 重启策略似乎不适用于此处 因为 简单的重启无法解决问题 我
errorhandling
apacheflink
eventstreamprocessing
我可以将 flink RocksDB 状态后端与本地文件系统一起使用吗?
我正在探索使用 FlinkrocksDb 状态后端 文档似乎暗示我可以使用常规文件系统 例如 file data flink checkpoints 但代码 javadoc 仅在此处提到 hdfs 或 s3 选项 我想知道是否可以将本地文件
apacheflink
rocksdb
Cassandra Pojo Sink Flink 中的动态表名称
我是 Apache Flink 的新手 我正在使用 Pojo Sink 将数据加载到 Cassandra 中 现在 我在以下命令的帮助下指定表和键空间名称 Table注解 现在 我想在运行时动态传递表名称和键空间名称 以便可以将数据加载到用
Java
cassandra
apacheflink
对 Parquet 批量格式使用压缩
从 Apache Flink 1 15 版本开始 您可以使用压缩功能将多个文件合并为一个 https nightlies apache org flink flink docs master docs connectors datastre
apacheflink
parquet
flinkstreaming
flink - 使用匕首注入 - 不可序列化?
我使用 Flink 最新通过 git 从 kafka 流式传输到 cassandra 为了简化单元测试 我通过 Dagger 添加依赖注入 ObjectGraph 似乎已正确设置自身 但 内部对象 被 Flink 标记为 不可序列化 如果我
Java
serialization
dagger
apacheflink
1
2
3
4
5
6
...8
»