Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
是否可以反序列化 Avro 消息(使用来自 Kafka 的消息)而不在 ConfluenceRegistryAvroDeserializationSchema 中提供 Reader 模式
我在 Apache Flink 中使用 Kafka Connector 来访问由汇流卡夫卡 除了 schema 注册表 url 之外ConfluentRegistryAvroDeserializationSchema forGeneric
ApacheKafka
apacheflink
confluentschemaregistry
Flink 可以将结果写入多个文件(如 Hadoop 的 MultipleOutputFormat)吗?
我正在使用 Apache Flink 的 DataSet API 我想实现一项将多个结果写入不同文件的作业 我怎样才能做到这一点 您可以将任意数量的数据接收器添加到DataSet根据您的需要进行编程 例如在这样的程序中 ExecutionE
Hadoop
apacheflink
当 processElement 依赖于广播数据时,如何在 flink 中对 BroadcastProcessFunction 进行单元测试
我用 BroadcastProcessFunction 实现了一个 flink 流 我从 processBroadcastElement 获取模型 并将其应用于 processElement 中的事件 我找不到对我的流进行单元测试的方法 因
scala
apacheflink
JcaPEMKeyConverter 由 BouncyCastle 提供,这是一个可选依赖项。要使用对 EC 密钥的支持,您必须显式添加对类路径的依赖项
我有一个简单的 Flink 流应用程序 它在创建的集群中运行良好start cluster sh命令 现在基于Flink教程 我希望将其以应用程序模式原生部署在由k3d在 macOS 上 首先 我创建了一个集群k3d cluster cre
Java
Kubernetes
apacheflink
K3S
k3d
flink 1.3.1 弹性搜索 5.5.1。 ElasticsearchSinkFunction 失败并出现 java.lang.NoSuchMethodError
我正在使用以下示例Scala sbt flink elasticsearch kibana Flink教程 My built sbt包括以下版本 libraryDependencies Seq org apache flink flink
scala
elasticsearch
apacheflink
Stream 的复用是否是流的副本
例如 有一个带密钥的流 val keyedStream KeyedStream event Key env addSource keyBy several transformations on the same stream keyedSt
apacheflink
flinkstreaming
从 Kafka 读取时使用 KeyBy 与 reinterpretAsKeyedStream()
我有一个简单的 Flink 流处理应用程序 Flink 版本 1 13 Flink 应用程序从 Kakfa 读取数据 对记录进行状态处理 然后将结果写回 Kafka 阅读完 Kafka 主题后 我选择使用reinterpretAsKeyed
apacheflink
flinkstreaming
如何在Scala中使用Flink的KafkaSource?
我正在尝试使用 Flink 的 KafkaSource 运行一个简单的测试程序 我正在使用以下内容 弗林克0 9 斯卡拉2 10 4 卡夫卡0 8 2 1 我按照文档测试 KafkaSource 添加依赖项 将 Kafka 连接器 flin
scala
ApacheKafka
apacheflink
在 Apache Flink 中使用 DynamoDB 流
有人尝试过在 Apache Flink 中使用 DynamoDB 流吗 Flink 有一个 Kinesis 消费者 但我正在寻找如何直接使用 Dynamo 流 DataStream
amazondynamodb
apacheflink
amazondynamodbstreams
Kubernetes 上的 Apache flink - 如果 jobmanager 崩溃则恢复作业
我想在 kubernetes 上运行 flink 作业 使用 持久 状态后端 似乎崩溃的任务管理器不是问题 因为如果我理解正确的话 它们可以询问作业管理器需要从哪个检查点恢复 崩溃的 jobmanager 似乎有点困难 对此翻页 6 页我读
Kubernetes
apacheflink
highavailability
flinkstreaming
将 AWS SQS 连接到 Apache-Flink
为什么 AWS SQS 不是默认连接器阿帕奇 弗林克 这样做有一些技术限制吗 或者只是有什么事情没有完成 我想实现这个 任何指示将不胜感激 对于原始问题的答案可能为时已晚 我使用 SQS 的 Java 消息服务库编写了一个 SQS 使用者作
amazonwebservices
apacheflink
amazonsqs
如何在 Apache Flink 中对数据集进行排序?
我有一个 DataSet gt 形式的元组数据集 我希望对字段 String 上的 整个 数据集进行排序 然后仅获取文件中的 Long 值 Flink 确实提供了排序分区 但这在这里没有帮助 因为我需要对数据集进行完全排序 您还可以使用so
apacheflink
Flink 键控流密钥为空
我正在尝试在 Flink 中的 KeyedStream 上执行映射操作 stream map new JsonToMessageObjectMapper keyBy keyfield map new MessageProcessorStat
Java
apacheflink
flinkstreaming
为什么 Apache Flink 需要 Watermarks 进行事件时间处理?
有人可以正确解释事件时间戳和水印吗 我从文档中理解了它 但不是那么清楚 现实生活中的例子或外行定义会有所帮助 另外 如果可能的话请给出一个示例 以及一些可以解释它的代码片段 提前致谢 这是一个示例 说明了为什么我们需要水印以及它们的工作原理
apacheflink
streamprocessing
集成 - Apache Flink + Spring Boot
我正在测试 Apache Flink 和 Spring Boot 之间的集成 在 IDE 上运行它们很好 但是当我尝试在 Apache Flink Cluster 上运行时 我遇到了一个与 ClassLoader 相关的异常 这些课程非常简
springboot
apacheflink
Apache Flink - 如果 x 分钟内没有收到数据,则发送事件
如何使用 Flink 的 DataStream API 实现一个运算符 以便在一段时间内没有从流中接收到数据时发送事件 这样的运算符可以使用ProcessFunction DataStream
timer
apacheflink
complexeventprocessing
datastream
Flink 中的 java.lang.NoSuchMethodError
我尝试使用以下方法读取文件 final ExecutionEnvironment env ExecutionEnvironment getExecutionEnvironment DataSet
Java
file
apacheflink
Flink 一次性消息处理
我已经设置了一个包含 2 个 JobManager 和 3 个 TaskManager 的 Flink 1 2 独立集群 并使用 JMeter 通过生成 Kafka 消息 事件来对其进行负载测试 然后进行处理 处理作业在 TaskManag
apacheflink
flinkstreaming
flinkcep
Apache Flink:如何为动态表启用“upsert 模式”?
我看到好几处提到 更新插入模式 Flink 文档和 Flink 官方博客中基于唯一键的动态表 但是 我没有看到任何有关如何在动态表上启用此模式的示例 文档 例子 博客文章 当通过更新模式在流上定义动态表时 我们可以指定一个唯一键表上的属性
apacheflink
flinkstreaming
flinksql
«
1
2
3
4
5
6
7
8