Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Kafka-MongoDB Debezium 连接器:分布式模式
我正在研究 debezium mongodb 源连接器 我可以通过将 kafka bootstrap 服务器地址提供为远程计算机 部署在 Kubernetes 中 和远程 MongoDB url 来在本地计算机上以分布式模式运行连接器吗 我
ApacheKafka
apachekafkaconnect
debezium
mongodbkafkaconnector
错误由于错误而停止(org.apache.kafka.connect.cli.ConnectStandalone)java.lang.NoClassDefFoundError:io/debezium/util/IoUtil
我正在尝试将我的 SQL Server 数据库连接到 Windows 上的 kafka 我下载了 Debezium jar 文件 它们位于名为 debezium connector sqlserver 的文件夹中 如下所示 卡夫卡文件夹 h
Windows
ApacheKafka
apachekafkaconnect
debezium
在 KafkaConnect 中使用 Avro,无需 Confluence Schema 注册表
我们在当前的基础设施中设置了普通的 apache Kafka 并开始记录一些我们想要使用 Kafka Connect 处理的数据 目前 我们使用 Avro 作为消息格式 但我们的基础设施中没有架构注册表 将来 我们计划用 Confluenc
ApacheKafka
Avro
apachekafkaconnect
confluentschemaregistry
无法使用 Avro 和嵌套类注册模式
每当 Avro 类模式中有嵌套对象时 就不会保存 总是会遇到异常 比如 org apache kafka connect errors ConnectException Tolerance exceeded in error handler
从S3读取文件到kafka主题
我遇到的情况是 所有事件数据都存储在 s3 存储桶中 我需要将其从 S3 获取到 ec2 上的 Kafka 主题 我正在使用 CamelAWSS3Connector 但面临连接器无法工作的问题 以下是我面临的错误 2023 01 06 10
保护对 Kafka Connect REST API 的访问
Kafka Connect 的 REST API 不安全且未经过身份验证 由于它未经身份验证 因此任何人都可以轻松访问连接器或任务的配置 由于这些配置可能包含如何访问源系统 在 SourceConnector 的情况下 和目标系统 在 Si
REST
ApacheKafka
apachekafkaconnect
将 Kafka 中的 Avro 转换为 Parquet 直接转入 S3
我的 Kafka 主题以 Avro 格式存储 我想使用整个主题 在收到时不会更改任何消息 并将其转换为 Parquet 直接保存在 S3 上 我目前正在这样做 但它需要我一次使用来自 Kafka 的消息并在本地计算机上处 理 将它们转换为
amazons3
ApacheKafka
parquet
apachekafkaconnect
Debezium Postgres Kafka 连接器心跳未提交 LSN
我在 AWS RDS 上有一个 Postgres Db 并且有一个 kafka 连接器 Debezium Postgres 正在监听表 连接器的配置 name my connector config connector class io d
postgresql
ApacheKafka
apachekafkaconnect
debezium
Kafka Confluence HTTP Sink Connector 的开源替代品 [关闭]
Closed 这个问题正在寻求书籍 工具 软件库等的推荐 不满足堆栈溢出指南 help closed questions 目前不接受答案 我想将数据从 Kafka 主题推送到 REST 端点 非企业版且未使用融合的 kafka 托管服务 我
ApacheKafka
kafkaconsumerapi
apachekafkaconnect
K8s 上广告的 kafka 连接休息侦听器
我正在努力以分布式模式在 Kubernetes DockerEE 上设置 Kafka Connect 目前 我在三个相应的 k8s pod 上有一个由三个工作人员组成的集群 我面临的问题是我的员工很难相互沟通 至少我是这么认为的 当我尝试启
Kubernetes
ApacheKafka
apachekafkaconnect
如何正确使用 Spark -> Kafka -> JDBC Sink 连接器和 Avro?
我有一个简单的 Spark 应用程序 通过以下方式生成 Kafka 消息 import org apache spark sql SparkSession import org apache spark sql functions col
apachespark
ApacheKafka
apachekafkaconnect
Avro
aiven
以 JSON 格式将数据从 Kafka Topic 推送到 PostgreSQL
更新后出错 2019 07 29 12 52 23 301 INFO Initializing writer using SQL dialect PostgreSqlDatabaseDialect io confluent connect
postgresql
ApacheKafka
apachekafkaconnect
confluentplatform
将自定义转换器与 Kafka Connect 结合使用?
我正在尝试将自定义转换器与 Kafka Connect 一起使用 但似乎无法正确执行 我希望有人有这方面的经验并可以帮助我解决这个问题 初始情况 我的自定义转换器的类路径是custom CustomStringConverter 为了避免任
ApacheKafka
apachekafkaconnect
用于 Azure Blob 存储的 Kafka 连接器
我需要将推送到 Kafka 的消息存储在深度存储中 我们正在使用 Azure 云服务 因此我认为 Azure Blob 存储可能是更好的选择 我想使用 Kafka Connect 的接收器连接器 API 将数据推送到 Azure Blob
ApacheKafka
azureblobstorage
apachekafkaconnect
Kafka-Connect:分布式模式下创建新的连接器就是创建新的组
我目前正在使用 confluence 3 0 1 平台 我试图在两个不同的工作人员上创建 2 个连接器 但尝试创建一个新的连接器正在为其创建一个新组 Two connectors were created using below detai
elasticsearch
ApacheKafka
apachekafkaconnect
confluentplatform
Amazon S3 可以作为 Kafka 集群的源吗?
Amazon S3 可以用作 Kafka 集群中的接收器 我想检查 Amazon S3 是否可以用作 Kafka 集群的源 卡夫卡连接 文件系统连接器 http kafka connect fs readthedocs io en late
amazons3
ApacheKafka
kafkaproducerapi
apachekafkaconnect
是否可以在没有 REST 请求的情况下创建 Kafka 连接器?
是否可以在没有 REST 请求的情况下创建 Kafka 连接器 我已经通过 java 代码启动了我的工作程序 分布式 并希望我的连接器也随之启动 我不想使用 REST 调用 不是来自浏览器 也不是来自代码 来创建我的连接器 我只想要一个简单
apachekafkaconnect
重新启动 Kafka Connect S3 Sink 任务丢失位置,完全重写所有内容
重新启动 Kafka Connect S3 接收器任务后 它会从主题的开头开始一直写入 并写入旧记录的重复副本 换句话说 Kafka Connect 似乎失去了它的地位 所以 我想象Kafka Connect将当前的偏移位置信息存储在内部c
amazons3
ApacheKafka
apachekafkaconnect
confluentplatform
Debezium 如何使用 Kafka Connect 正确注册 SqlServer 连接器 - 连接被拒绝
问题 如何使用 Kafka Connect 正确注册 SqlServer 连接器以连接到独立的 SQL Server 实例 注意 我没有在 Docker 中运行 SQL Server Error 错误 由以下原因引起 com microso
sqlserver
Docker
ApacheKafka
apachekafkaconnect
debezium
«
1
2
3
4
»