Kafka性能测试工具

2023-05-16

简介

Kafka本身自带了性能测试的脚本,可以测试发送端和消费端的速度,分别为:
kafka-producer-perf-test.sh
kafka-consumer-perf-test.sh
这两个脚本可以在kafka的bin目录下找到。

发送端

bin/kafka-producer-perf-test.sh

usage: producer-performance [-h] --topic TOPIC --num-records NUM-RECORDS --record-size RECORD-SIZE --throughput THROUGHPUT [--producer-props PROP-NAME=PROP-VALUE [PROP-NAME=PROP-VALUE ...]] [--producer.config CONFIG-FILE] This tool is used to verify the producer performance. optional arguments: -h, --help             show this help message and exit
  --topic TOPIC          produce messages to this topic
  --num-records NUM-RECORDS number of messages to produce
  --record-size RECORD-SIZE message size in bytes
  --throughput THROUGHPUT throttle maximum message throughput to *approximately* THROUGHPUT messages/sec
  --producer-props PROP-NAME=PROP-VALUE [PROP-NAME=PROP-VALUE ...] kafka producer related configuration properties like bootstrap.servers,client.id etc. These configs take  precedence over those passed via --
                         producer.config.
  --producer.config CONFIG-FILE producer config properties file. 

例子:

bin/kafka-producer-perf-test.sh --topic store --record-size 1000 --throughput 2000 --num-records 10000 --producer-props bootstrap.servers=cdh01:9092  client.id=store_client

消费端

bin/kafka-consumer-perf-test.sh

Option                                 Description
------                                 ----------- --batch-size <Integer: size>           Number of messages to write in a
                                         single batch. (default: 200)
--broker-list <host>                   A broker list to use for connecting if using the new consumer.
--compression-codec <Integer:          If set, messages are sent compressed
  supported codec: NoCompressionCodec    (default: 0)
  as 0, GZIPCompressionCodec as 1,
  SnappyCompressionCodec as 2,
  LZ4CompressionCodec as 3>
--consumer.config <config file>        Consumer config properties file. --date-format <date format>            The date format to use for formatting
                                         the time field. See java.text.
                                         SimpleDateFormat for options.
                                         (default: yyyy-MM-dd HH:mm:ss:SSS)
--fetch-size <Integer: size>           The amount of data to fetch in a
                                         single request. (default: 1048576)
--from-latest                          If the consumer does not already have
                                         an established offset to consume
                                         from, start with the latest message
                                         present in the log rather than the
                                         earliest message.
--group <gid>                          The group id to consume on. (default:
                                         perf-consumer-77417)
--help                                 Print usage. --hide-header                          If set, skips printing the header for
                                         the stats
--message-size <Integer: size>         The size of each message. (default: 100)
--messages <Long: count>               REQUIRED: The number of messages to
                                         send or consume
--new-consumer                         Use the new consumer implementation. --num-fetch-threads <Integer: count>   Number of fetcher threads. (default: 1) --reporting-interval <Integer:         Interval in milliseconds at which to
  interval_ms>                           print progress info. (default: 5000)
--show-detailed-stats                  If set, stats are reported for each
                                         reporting interval as configured by
                                         reporting-interval --socket-buffer-size <Integer: size>   The size of the tcp RECV size.
                                         (default: 2097152)
--threads <Integer: count>             Number of processing threads.
                                         (default: 10)
--topic <topic>                        REQUIRED: The topic to consume from. --zookeeper <urls>                     The connection string for the
                                         zookeeper connection in the form
                                         host:port. Multiple URLS can be
                                         given to allow fail-over. This
                                         option is only used with the old
                                         consumer.

例子:

bin/kafka-consumer-perf-test.sh --topic store --zookeeper cdh01:2181 --messages 10000
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Kafka性能测试工具 的相关文章

  • Kafka传输数据到Spark Streaming通过编写程序java、scala程序实现操作

    一 案例说明 现有一电商网站数据文件 名为buyer favorite1 记录了用户对商品的收藏数据 数据以 t 键分割 数据内容及数据格式如下 二 前置准备工作 项目环境说明 Linux Ubuntu 16 04 jdk 7u75 lin
  • kafka创建话题遇到的错误

    确定Kafka安装和启动正确 ZooKeeper可以查到所有的Brokers 但执行 kafka topics sh create zookeeper localhost 2181 replication factor 3 partitio
  • 面对kafka频发的rebalance,该如何处理?

    Kafka 是我们最常用的消息队列 它那几万 甚至几十万的处理速度让我们为之欣喜若狂 但是随着使用场景的增加 我们遇到的问题也越来越多 其中一个经常遇到的问题就是 rebalance 重平衡 问题 但是要想了解 rebalance 那就得先
  • Kafka——javaAPI

    文章目录 Kafka的JavaAPI 1 未整合版的Kafka的API 1 1 Producer 消息发送端代码 1 2 Consumer 消息消费端代码 2 Spring Boot整合Kafka 2 1 发送者代码 Producer 2
  • Kafka/Spark消费topic到写出到topic

    1 Kafka的工具类 1 1 从kafka消费数据的方法 消费者代码 def getKafkaDStream ssc StreamingContext topic String groupId String consumerConfigs
  • kafka详解及集群环境搭建

    一 kafka详解 安装包下载地址 https download csdn net download weixin 45894220 87020758 1 1Kafka是什么 1 Kafka是一个开源消息系统 由Scala写成 是由Apac
  • Kafka原理分析

    在基础篇中我们介绍MQ的一些基础原理 这篇文章 我们针对kafka进行较深入的分析 上篇文章中我们提到了kafka中一个名词broker 其实broker可以理解成为一台kafa服务器 kafka的特性和功能 在kafka设计之初是为了实时
  • springboot本机启动elasticjob抛出异常HostException(ip is null)

    1 使用的elasticjob版本为3 0 1 2 本机的IPV4在校验isReachable 返回false 可能是使用无线网 导致ip验证问题 3 最后引入Groovy解决 引入包
  • 基于Spark的电商用户行为实时分析可视化系统(Flask-SocketIO)

    基于Spark的电商用户行为实时分析可视化系统 Flask SocketIO 项目简介 该项目已上线蓝桥课程 有需要的可凭邀请码 UB5mdLbl 学习哦 有优惠 课程地址 https www lanqiao cn courses 2629
  • Flink设置Source数据源使用kafka获取数据

    流处理说明 有边界的流bounded stream 批数据 无边界的流unbounded stream 真正的流数据 Source 基于集合 package com pzb source import org apache flink ap
  • Flink消费kafka出现空指针异常

    文章目录 出现场景 表现 问题 解决 tombstone Kafka中提供了一个墓碑消息 tombstone 的概念 如果一条消息的key不为null 但是其value为null 那么此消息就是墓碑消息 出现场景 双流join时 采用的是l
  • 仿kafka实现java版时间轮

    系统定时 超时 在我们平时的项目开发中 会设置系统的超时时间 比如在http接口中设置超时时间 在定时调度中也会用到 在jdk的开发的实现Timer和ScheduledThreadPoolExecutor DelayQueue定时调度中使用
  • kafka + zookeeper下载/安装/使用(超详细)

    kafka是需要zk来支持 所以先下载zk 1 下载安装zookeeper 下载地址 选择不带source的 下载下来解压2次 进入到 D zookeeper apache zookeeper 3 6 1 bin conf 目录下 把zoo
  • Kafka : KafkaProducer Closing the kafka producer with timeoutMillis

    1 美图 2 背景 一段kafka写入程序 不晓得为啥突然发现很多奇怪的日志 kafka 多线程发送数据 然后在本地是可以的 在服务器上是偶现的 我写了一个本地程序多线程生产数据 发现是没有问题的 Test public void mult
  • java版kafka producer实现

    需求 1 kafka server已经配置完全 且设定了访问限制 基于这一点 必须要设定认证 及预先分配的账号密码 2 由于项目开发环境是java 且不允许使用LogStash 基于这一点 必须实现一个java版的producer 先贴一份
  • Kafka性能保证和延时队列实现原理

    数据不丢不漏 不重不错 一 不丢 生产写入消息不丢失 数据组织形式 首先 从数据组织形式来说 kafka有三层形式 kafka有多个主题 topic 每个主题有多个分区 分区分为主分区和副本分区 每个分区又有多条消息 而每个分区可以分布到不
  • shell脚本,一次性启动kafka集群

    版本centos6 5 64位操作系统 已配置JDK1 8 三个节点 在s121节点上可以免密登录到另外两个节点 另外kafka0 9 0 1的安装目录相同 修改了主机名 并在每个节点的hosts文件中设置了映射 脚本内容 bin bash
  • Kafka——Mac搭建kafka环境

    1 下载Kafka安装包 下载地址 将压缩包移动到 usr local mv kafka 2 12 3 1 0 tgz usr local 解压 tar zxvf kafka 2 12 3 1 0 tgz 2 启动 启动zookeeper
  • kafka的新API 得到最新一条数据

    业务的需要 需要得到最新的一条消息从kafka中 但是发现ConsumerRecords 这个对象并没有 get index 这种方式的获取并且只能 iterator 或者增强for 循环这种方式来循环 记录 但是有一个count 可以得到
  • 从 MySQL 到 DolphinDB,Debezium + Kafka 数据同步实战

    Debezium 是一个开源的分布式平台 用于实时捕获和发布数据库更改事件 它可以将关系型数据库 如 MySQL PostgreSQL Oracle 等 的变更事件转化为可观察的流数据 以供其他应用程序实时消费和处理 本文中我们将采用 De

随机推荐

  • 全球首发,国产开源「文本-视频生成」模型!免费在线体验,一键实现视频生成自由...

    来源 xff1a 新智元 去年4月 xff0c OpenAI发布的DALL E 2用更高的分辨率 更真实的图像生成以及更准确地理解自然描述 xff0c 横扫整个AIGC领域 不过图像生成真正进入全民化还要数Stable Diffusion的
  • 1、回文判断(java数据结构)

    回文判断 回文是指正读反读均相同的字符序列 xff0c 如 abba 和 abdba 均是回文 xff0c 但 good 不是回文 编写一个程序 xff0c 使用栈判定给定的字符序列是否为回文 输入格式 输入待判断的字符序列 xff0c 按
  • 12、栈、队列和字符串的基本操作(Java数据结构)

    栈 队列和字符串的基本操作 使用栈与队列逐个处理字符串中的每个字符 将输入的字符串的字符依次入栈 xff0c 然后输出栈中元素个数与栈顶元素 xff0c 以空格分隔 然后将栈中元素依次出栈并输出 xff0c 出栈时将不等于指定字符的元素依次
  • 在虚拟机上使用Ghost备份/恢复操作系统

    课堂作业 xff1a Windows10备份与恢复 实验目的 xff1a 使用Ghost备份 恢复操作系统 需求描述 用Ghost软件为Windows 10样机制作备份镜像 将制作的Gho文件备份到本机其他磁盘 xff0c 以备不时之需 环
  • 如何利用抓包验证 三次握手,四次挥手

    三次握手 xff0c 四次挥手 1 打开Centos 7 6 虚拟机设置 xff0c 自定义网卡VMnet8 2 打开控制面板 网络和internet 网络连接 xff0c 查看VMnet8网卡IPV4地址 3 开启虚拟机 xff0c 点击
  • VMware、linux虚拟机设置网络实现虚拟机与主机网络互通

    需要配置三个方面才可以 xff0c 即 xff1a WMware网络配置 windows主机网络配置 虚拟机网络配置 首先 xff0c 确认VMware虚拟机设置中配置的网络连接方式为 xff1a NAT模式 可以在VMware上方的菜单中
  • 单臂路由的使用及详细配置命令

    实验环境 xff1a 需求描述 xff1a 使各个vlan之间都能ping通 操作步骤 xff1a 1 LSW1划分vlan xff0c 讲对应的端口划分到对应的vlan 里面 xff0c 进入g0 0 1 xff0c 端口设置为trunk
  • 学习华为特殊端口模式Hybrid(带配置命令)

    目录 HybridHybrid接口工作原理实验环境 xff1a 实验步骤 xff1a 一 交换机的配置1 SW1的配置2 SW2的配置 二 PC地址配置三 PC互ping xff0c 简述PC互ping流程 Hybrid Hybrid接口工
  • ENSP 单臂路由的配置(带配置命令)

    目录 单臂路由原理实验环境 xff1a 需求描述 xff1a 操作步骤 xff1a 一 LSW1的配置二 R1的配置三 配置PC IP地址四 验证 单臂路由原理 在路由器的一个接口上通过配置逻辑接口的方式和E trunk多链路汇聚 xff0
  • Samba服务的匿名访问用户访问以及权限控制

    目录 一 samba服务概述二 Samba服务的配置2 1 安装DHCP服务2 2 win10通过DHCP 获取地址2 3 安装并配置Samba服务2 3 1 修改samba配置文件 匿名访问2 3 2 启动Samba服务2 3 4用户密码
  • k8s多master节点使用二进制部署群集

    目录 一 K8S 多节点部署1 1 拓补图与主机分配1 2 mster02部署1 2 1 复制master中的三个组件启动脚本kube apiserver service kube controller manager service ku
  • K8S网站页面的搭建与证书优化配置

    一 下载官方的YAML 文件 五个文件各自的作用 dashboard configmap yaml 配置文件 dashboard deployment yaml 部署 dashboard rbac yaml 授权管理 一般来说要绑定角色 d
  • kubectl管理与项目的完整周期

    目录 一 kubectl管理二 项目的完整周期2 1 创建项目2 2 项目的发布2 3 更新版本2 4 版本回滚2 5 删除资源 一 kubectl管理 Kubectl是管理k8s集群的命令行工具 xff0c 通过生成的json格式传递给a
  • 学习记录:Ubuntu系统安装远程控制软件teamviewer

    一 teamviewer安装包下载 1 下载官方地址 xff1a https www teamviewer cn cn download linux 2 百度网盘下载地址 xff1a 链接 xff1a https pan baidu com
  • 结构体的内存对齐

    之前我们都知道int类型大小是4个字节 xff0c char类型为1个字节 xff0c double为8个字节等等 但是结构体是由很多类型组成的 xff0c 那么它的大小是多少呢 xff1f 是所有类型相加之和还是另有算法 xff1f 接下
  • (linux-x86-arm)银河麒麟V10安装ToDesk远程控制

    摘要 xff08 linux x86 xff09 银河麒麟V10安装ToDesk远程控制 xff08 类似向日葵 xff0c 但是不限速 xff09 xff0c 同理UOS和其他操作系统操作一样 原文地址 xff1a xff08 linux
  • ftp550权限问题

    很多人在使用别人服务器上传ftp的时候都是没什么问题的 xff0c 但是如果遇到了自己或公司内部的服务器就可能出现ftp权限550的问题 问题 xff1a 为什么会出现550 xff1f 因为你的权限出现问题 xff0c 可能的问题就是服务
  • ABAQUS几何非线性问题:薄板大变形(如何定义材料方向)

    ABAQUS几何非线性问题 xff1a 薄板大变形 在本案例中 xff0c 笔者将从几何非线性角度分析一个线性材料的薄板在发生大尺度变形情况下的非线性问题 另外向大家简单介绍ABAQUS在求解非线性问题时所采用的方法 xff0c 以及分析步
  • you-get库、you-get 下载视频失败

    报错描述 xff1a 正常输入指令下载视频 xff0c 终端提示 some thiing went wrong 排查错误 xff1a 1 排查python环境版本过低 xff0c 截止目前you get 支持Python 3 7 4 or
  • Kafka性能测试工具

    简介 Kafka本身自带了性能测试的脚本 xff0c 可以测试发送端和消费端的速度 xff0c 分别为 xff1a kafka producer perf test sh kafka consumer perf test sh 这两个脚本可