Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
flink集群启动错误[ERROR]无法正确获取JVM参数
bin start cluster sh Starting cluster INFO 1 instance s of standalonesession are already running on centos1 Starting sta
apacheflink
flinkstreaming
Flink 中复杂拓扑(多输入)的集成测试
我需要为 flink 流拓扑编写单元测试 这基本上是一个CoFlatMapFunction 并且它有 2 个输入 我尝试从这个页面中获得一些灵感 https ci apache org projects flink flink docs s
Java
unittesting
apacheflink
flinkstreaming
Apache Flink 1.3 中的 Elasticsearch 5 连接器
通过阅读文档 我了解到使用 Apache Flink 1 3 我应该能够使用 Elasticsearch 5 x 但是 在我的 pom xml 中
Maven
elasticsearch
apacheflink
Apache Flink:如何从 Cassandra 读取数据流/数据集?
我尝试将 Cassandra 视为 Flink 中的数据源 并使用以下链接中提供的信息 从 Cassandra 读取数据以在 Flink 中进行处理 https stackoverflow com questions 43067681 re
cassandra
apacheflink
Apache Flink:设置并行度的指南?
我正在尝试获取一些简单的规则或指南来设置哪些值 操作员或工作 并行性 在我看来 它应该是一个数字 例如 假设我有 2 台任务管理器机器 每台都有 4 个任务槽 假设集群上没有运行其他作业 我会设置并行度吗 用于操作 喜欢过滤并映射到 8 如
apacheflink
flinkstreaming
为什么我的 Flink 窗口使用这么多状态?
我的 Flink 作业的检查点变得越来越大 在深入研究各个任务后 键控窗口函数似乎负责大部分大小 我怎样才能减少这个 如果您在 Windows 中绑定了很多状态 则有几种可能性 使用增量聚合 通过使用reduce or aggregate
apacheflink
flinkstreaming
谁能分享一下 Scala 中的 Flink Kafka 示例吗?
谁能分享一下Scala中Flink Kafka 主要是从Kafka接收消息 的工作示例吗 我知道有一个Kafka字数统计 https github com apache spark blob master examples src main
scala
ApacheKafka
apacheflink
为什么 Flink 在 DataStream join + Global window 上发出重复记录?
我正在学习 试验 Flink 并且观察到 DataStream 连接的一些意外行为 并且想了解发生了什么 假设我有两个流 每个流有 10 条记录 我想将其加入到id场地 假设一个流中的每条记录在另一个流中都有一个匹配的记录 并且 ID 在每
apacheflink
Kafka - 无法建立与节点-1的连接
我正在尝试使用 apache flink 流处理 kafka 主题 但我遇到了这个问题 2018 04 10 02 55 59 856 ProducerConfig values acks 1 batch size 16384 bootst
ApacheKafka
apacheflink
SingleOutputStreamOperator#returns(TypeHint
typeHint) 方法的 javadoc
我正在阅读源代码SingleOutputStreamOperator returns 它的javadoc是 Adds a type information hint about the return type of this operato
Java
apacheflink
flinkstreaming
Flink:将文件与kafka流连接
我有一个问题我真的无法弄清楚 所以我有一个 kafka 流 其中包含一些如下数据 adId 9001 eventAction start eventType track eventValue timestamp 1498118549550
ApacheKafka
apacheflink
如何判断 Apache Flink 运行在哪个端口?
我安装了 apache flink 转到flink 1 14 3文件夹并运行 bin start cluster sh 它似乎已成功启动集群 因为它输出了以下内容 Starting cluster Starting standalonese
apacheflink
无法在 Flink 新 Kafka Consumer-api (1.14) 中的检查点上向 Kafka 提交消费偏移量
我使用以下代码引用 Kafka 源连接器的 Flink 1 14 版本 我期待以下要求 在应用程序刚开始时必须读取 Kafka 主题的最新偏移量 在检查点上 它必须将消耗的偏移量提交给 Kafka 重新启动后 当应用程序手动终止 系统错误时
apacheflink
flinkstreaming
根据 Flink 的模式使用 GCS 文件
由于 Flink 支持 Hadoop 文件系统抽象 并且有一个GCS连接器 https github com GoogleCloudPlatform bigdata interop 在 Google Cloud Storage 之上实现它的
apacheflink
googleclouddataproc
logback 在 Flink 中不起作用
我有一个单节点 Flink 实例 它在 lib 文件夹中具有 logback 所需的 jar logback classic jar logback core jar log4j over slf4j jar 我已从 lib 文件夹中删除了
logback
apacheflink
如何增加 Flink taskmanager.numberOfTaskSlots 以在没有 Flink 服务器的情况下运行它(在 IDE 或 fat jar 中)
我有一个关于在 IDE 中运行 Flink 流作业或作为 fat jar 运行而不将其部署到 Flink 服务器的问题 问题是当我的工作中有超过 1 个任务槽时 我无法在 IDE 中运行它 public class StreamingJob
Java
apacheflink
flinkstreaming
为 Flink 集群中的插件添加自定义依赖项
我有一个 Flink 会话集群 作业管理器 任务管理器 版本 1 11 1 配置了 log4j console properties 以包含 Kafka 附加程序 此外 在作业管理器和任务管理器中 我都启用了 flink s3 fs had
ApacheKafka
apacheflink
Flink 处理事件太慢
我使用 Kinesis 数据流作为源 使用 elasticsearch 作为接收器 在 AWS Kinesis Data 分析应用程序中运行 Flink 作业 事件示例 area sessions userId 4450 date 2021
apacheflink
flinkstreaming
amazonkinesisanalytics
Apache Flink 与 Elasticsearch 集成
我正在尝试将 Flink 与 Elasticsearch 2 1 1 集成 我正在使用 Maven 依赖项
Java
elasticsearch
apacheflink
Flink 仪表板版本 1.3.2 中无法执行 CEP 模式,这是由 ClassNotFoundException 引起的
我写了一个像这样的简单模式 Pattern
apacheflink
flinkstreaming
flinkcep
«
1
2
3
4
5
6
7
...9
»