分布式消息队列kafka的配置文件是怎么样的
发表于:2025-12-02 作者:千家信息网编辑
千家信息网最后更新 2025年12月02日,本篇文章给大家分享的是有关分布式消息队列kafka的配置文件是怎么样的,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。kafka的配置分为
千家信息网最后更新 2025年12月02日分布式消息队列kafka的配置文件是怎么样的
本篇文章给大家分享的是有关分布式消息队列kafka的配置文件是怎么样的,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。
kafka的配置分为 broker、producter、consumer三个不同的配置
一 BROKER 的全局配置
最为核心的三个配置 broker.id、log.dir、zookeeper.connect 。
------------------------------------------- 系统 相关 -------------------------------------------##每一个broker在集群中的唯一标示,要求是正数。在改变IP地址,不改变broker.id的话不会影响consumersbroker.id = 1 ##kafka数据的存放地址,多个地址的话用逗号分割 /tmp/kafka-logs-1,/tmp/kafka-logs-2log.dirs = /tmp/kafka-logs ##提供给客户端响应的端口port = 6667 ##消息体的最大大小,单位是字节message.max.bytes = 1000000 ## broker 处理消息的最大线程数,一般情况下不需要去修改num.network.threads = 3 ## broker处理磁盘IO 的线程数 ,数值应该大于你的硬盘数num.io.threads = 8 ## 一些后台任务处理的线程数,例如过期消息文件的删除等,一般情况下不需要去做修改background.threads = 4 ## 等待IO线程处理的请求队列最大数,若是等待IO的请求超过这个数值,那么会停止接受外部消息,算是一种自我保护机制queued.max.requests = 500 ##broker的主机地址,若是设置了,那么会绑定到这个地址上,若是没有,会绑定到所有的接口上,并将其中之一发送到ZK,一般不设置host.name ## 打广告的地址,若是设置的话,会提供给producers, consumers,其他broker连接,具体如何使用还未深究advertised.host.name ## 广告地址端口,必须不同于port中的设置advertised.port ## socket的发送缓冲区,socket的调优参数SO_SNDBUFFsocket.send.buffer.bytes = 100 * 1024 ## socket的接受缓冲区,socket的调优参数SO_RCVBUFFsocket.receive.buffer.bytes = 100 * 1024 ## socket请求的最大数值,防止serverOOM,message.max.bytes必然要小于socket.request.max.bytes,会被topic创建时的指定参数覆盖socket.request.max.bytes = 100 * 1024 * 1024 ------------------------------------------- LOG 相关 -------------------------------------------## topic的分区是以一堆segment文件存储的,这个控制每个segment的大小,会被topic创建时的指定参数覆盖log.segment.bytes = 1024 * 1024 * 1024 ## 这个参数会在日志segment没有达到log.segment.bytes设置的大小,也会强制新建一个segment 会被 topic创建时的指定参数覆盖log.roll.hours = 24*7 ## 日志清理策略 选择有:delete和compact 主要针对过期数据的处理,或是日志文件达到限制的额度,会被 topic创建时的指定参数覆盖log.cleanup.policy = delete ## 数据存储的最大时间 超过这个时间 会根据log.cleanup.policy设置的策略处理数据,也就是消费端能够多久去消费数据## log.retention.bytes和log.retention.minutes任意一个达到要求,都会执行删除,会被topic创建时的指定参数覆盖log.retention.minutes=7 days ## topic每个分区的最大文件大小,一个topic的大小限制 = 分区数*log.retention.bytes 。-1 没有大小限制## log.retention.bytes和log.retention.minutes任意一个达到要求,都会执行删除,会被topic创建时的指定参数覆盖log.retention.bytes=-1 ## 文件大小检查的周期时间,是否处罚 log.cleanup.policy中设置的策略log.retention.check.interval.ms=5 minutes ## 是否开启日志压缩log.cleaner.enable=false ## 日志压缩运行的线程数log.cleaner.threads =1 ## 日志压缩时候处理的最大大小log.cleaner.io.max.bytes.per.second=None ## 日志压缩去重时候的缓存空间 ,在空间允许的情况下,越大越好log.cleaner.dedupe.buffer.size=500*1024*1024 ## 日志清理时候用到的IO块大小 一般不需要修改log.cleaner.io.buffer.size=512*1024 ## 日志清理中hash表的扩大因子 一般不需要修改log.cleaner.io.buffer.load.factor = 0.9 ## 检查是否处罚日志清理的间隔log.cleaner.backoff.ms =15000 ## 日志清理的频率控制,越大意味着更高效的清理,同时会存在一些空间上的浪费,会被topic创建时的指定参数覆盖log.cleaner.min.cleanable.ratio=0.5 ## 对于压缩的日志保留的最长时间,也是客户端消费消息的最长时间,同log.retention.minutes的区别在于一个控制未压缩数据,一个控制压缩后的数据。会被topic创建时的指定参数覆盖log.cleaner.delete.retention.ms = 1 day ## 对于segment日志的索引文件大小限制,会被topic创建时的指定参数覆盖log.index.size.max.bytes = 10 * 1024 * 1024 ## 当执行一个fetch操作后,需要一定的空间来扫描最近的offset大小,设置越大,代表扫描速度越快,但是也更好内存,一般情况下不需要搭理这个参数log.index.interval.bytes = 4096 ## log文件"sync"到磁盘之前累积的消息条数## 因为磁盘IO操作是一个慢操作,但又是一个"数据可靠性"的必要手段## 所以此参数的设置,需要在"数据可靠性"与"性能"之间做必要的权衡.## 如果此值过大,将会导致每次"fsync"的时间较长(IO阻塞)## 如果此值过小,将会导致"fsync"的次数较多,这也意味着整体的client请求有一定的延迟.## 物理server故障,将会导致没有fsync的消息丢失.log.flush.interval.messages=None ## 检查是否需要固化到硬盘的时间间隔log.flush.scheduler.interval.ms = 3000 ## 仅仅通过interval来控制消息的磁盘写入时机,是不足的.## 此参数用于控制"fsync"的时间间隔,如果消息量始终没有达到阀值,但是离上一次磁盘同步的时间间隔## 达到阀值,也将触发.log.flush.interval.ms = None ## 文件在索引中清除后保留的时间 一般不需要去修改log.delete.delay.ms = 60000 ## 控制上次固化硬盘的时间点,以便于数据恢复 一般不需要去修改log.flush.offset.checkpoint.interval.ms =60000 ------------------------------------------- TOPIC 相关 -------------------------------------------## 是否允许自动创建topic ,若是false,就需要通过命令创建topicauto.create.topics.enable =true ## 一个topic ,默认分区的replication个数 ,不得大于集群中broker的个数default.replication.factor =1 ## 每个topic的分区个数,若是在topic创建时候没有指定的话 会被topic创建时的指定参数覆盖num.partitions = 1 实例 --replication-factor 3 --partitions 1 --topic replicated-topic :名称replicated-topic有一个分区,分区被复制到三个broker上。 ------------------------------------------- 复制(Leader、replicas) 相关 -------------------------------------------## partition leader与replicas之间通讯时,socket的超时时间controller.socket.timeout.ms = 30000 ## partition leader与replicas数据同步时,消息的队列尺寸controller.message.queue.size=10 ## replicas响应partition leader的最长等待时间,若是超过这个时间,就将replicas列入ISR(in-sync replicas),并认为它是死的,不会再加入管理中replica.lag.time.max.ms = 10000 ## 如果follower落后与leader太多,将会认为此follower[或者说partition relicas]已经失效## 通常,在follower与leader通讯时,因为网络延迟或者链接断开,总会导致replicas中消息同步滞后## 如果消息之后太多,leader将认为此follower网络延迟较大或者消息吞吐能力有限,将会把此replicas迁移## 到其他follower中.## 在broker数量较少,或者网络不足的环境中,建议提高此值.replica.lag.max.messages = 4000 ##follower与leader之间的socket超时时间replica.socket.timeout.ms= 30 * 1000 ## leader复制时候的socket缓存大小replica.socket.receive.buffer.bytes=64 * 1024 ## replicas每次获取数据的最大大小replica.fetch.max.bytes = 1024 * 1024 ## replicas同leader之间通信的最大等待时间,失败了会重试replica.fetch.wait.max.ms = 500 ## fetch的最小数据尺寸,如果leader中尚未同步的数据不足此值,将会阻塞,直到满足条件replica.fetch.min.bytes =1 ## leader 进行复制的线程数,增大这个数值会增加follower的IOnum.replica.fetchers=1 ## 每个replica检查是否将最高水位进行固化的频率replica.high.watermark.checkpoint.interval.ms = 5000 ## 是否允许控制器关闭broker ,若是设置为true,会关闭所有在这个broker上的leader,并转移到其他brokercontrolled.shutdown.enable = false ## 控制器关闭的尝试次数controlled.shutdown.max.retries = 3 ## 每次关闭尝试的时间间隔controlled.shutdown.retry.backoff.ms = 5000 ## 是否自动平衡broker之间的分配策略auto.leader.rebalance.enable = false ## leader的不平衡比例,若是超过这个数值,会对分区进行重新的平衡leader.imbalance.per.broker.percentage = 10 ## 检查leader是否不平衡的时间间隔leader.imbalance.check.interval.seconds = 300 ## 客户端保留offset信息的最大空间大小offset.metadata.max.bytes ------------------------------------------- ZooKeeper 相关 -------------------------------------------##zookeeper集群的地址,可以是多个,多个之间用逗号分割 hostname1:port1,hostname2:port2,hostname3:port3zookeeper.connect = localhost:2181 ## ZooKeeper的最大超时时间,就是心跳的间隔,若是没有反映,那么认为已经死了,不易过大zookeeper.session.timeout.ms=6000 ## ZooKeeper的连接超时时间zookeeper.connection.timeout.ms = 6000 ## ZooKeeper集群中leader和follower之间的同步实际那zookeeper.sync.time.ms = 2000配置的修改其中一部分配置是可以被每个topic自身的配置所代替,例如新增配置bin/kafka-topics.sh --zookeeper localhost:2181 --create --topic my-topic --partitions 1 --replication-factor 1 --config max.message.bytes=64000 --config flush.messages=1 修改配置bin/kafka-topics.sh --zookeeper localhost:2181 --alter --topic my-topic --config max.message.bytes=128000 删除配置 :bin/kafka-topics.sh --zookeeper localhost:2181 --alter --topic my-topic --deleteConfig max.message.bytes
二 CONSUMER 配置
最为核心的配置是group.id、zookeeper.connect
## Consumer归属的组ID,broker是根据group.id来判断是队列模式还是发布订阅模式,非常重要group.id ## 消费者的ID,若是没有设置的话,会自增consumer.id ## 一个用于跟踪调查的ID ,最好同group.id相同client.id = group id value ## 对于zookeeper集群的指定,可以是多个 hostname1:port1,hostname2:port2,hostname3:port3 必须和broker使用同样的zk配置zookeeper.connect=localhost:2182 ## zookeeper的心跳超时时间,查过这个时间就认为是dead消费者zookeeper.session.timeout.ms = 6000 ## zookeeper的等待连接时间zookeeper.connection.timeout.ms = 6000 ## zookeeper的follower同leader的同步时间zookeeper.sync.time.ms = 2000 ## 当zookeeper中没有初始的offset时候的处理方式 。smallest :重置为最小值 largest:重置为最大值 anything else:抛出异常auto.offset.reset = largest ## socket的超时时间,实际的超时时间是:max.fetch.wait + socket.timeout.ms.socket.timeout.ms= 30 * 1000 ## socket的接受缓存空间大小socket.receive.buffer.bytes=64 * 1024 ##从每个分区获取的消息大小限制fetch.message.max.bytes = 1024 * 1024 ## 是否在消费消息后将offset同步到zookeeper,当Consumer失败后就能从zookeeper获取最新的offsetauto.commit.enable = true ## 自动提交的时间间隔auto.commit.interval.ms = 60 * 1000 ## 用来处理消费消息的块,每个块可以等同于fetch.message.max.bytes中数值queued.max.message.chunks = 10 ## 当有新的consumer加入到group时,将会reblance,此后将会有partitions的消费端迁移到新## 的consumer上,如果一个consumer获得了某个partition的消费权限,那么它将会向zk注册## "Partition Owner registry"节点信息,但是有可能此时旧的consumer尚没有释放此节点,## 此值用于控制,注册节点的重试次数.rebalance.max.retries = 4 ## 每次再平衡的时间间隔rebalance.backoff.ms = 2000 ## 每次重新选举leader的时间refresh.leader.backoff.ms ## server发送到消费端的最小数据,若是不满足这个数值则会等待,知道满足数值要求fetch.min.bytes = 1 ## 若是不满足最小大小(fetch.min.bytes)的话,等待消费端请求的最长等待时间fetch.wait.max.ms = 100 ## 指定时间内没有消息到达就抛出异常,一般不需要改consumer.timeout.ms = -1
三 PRODUCER 的配置
比较核心的配置:metadata.broker.list、request.required.acks、producer.type、serializer.class
## 消费者获取消息元信息(topics, partitions and replicas)的地址,配置格式是:host1:port1,host2:port2,也可以在外面设置一个vipmetadata.broker.list ## 消息的确认模式## 0:不保证消息的到达确认,只管发送,低延迟但是会出现消息的丢失,在某个server失败的情况下,有点像TCP## 1:发送消息,并会等待leader 收到确认后,一定的可靠性## -1:发送消息,等待leader收到确认,并进行复制操作后,才返回,最高的可靠性request.required.acks = 0 ## 消息发送的最长等待时间request.timeout.ms = 10000 ## socket的缓存大小send.buffer.bytes=100*1024 ## key的序列化方式,若是没有设置,同serializer.classkey.serializer.class ## 分区的策略,默认是取模partitioner.class=kafka.producer.DefaultPartitioner ## 消息的压缩模式,默认是none,可以有gzip和snappycompression.codec = none ## 可以针对默写特定的topic进行压缩compressed.topics=null ## 消息发送失败后的重试次数message.send.max.retries = 3 ## 每次失败后的间隔时间retry.backoff.ms = 100 ## 生产者定时更新topic元信息的时间间隔 ,若是设置为0,那么会在每个消息发送后都去更新数据topic.metadata.refresh.interval.ms = 600 * 1000 ## 用户随意指定,但是不能重复,主要用于跟踪记录消息client.id="" ------------------------------------------- 消息模式 相关 -------------------------------------------## 生产者的类型 async:异步执行消息的发送 sync:同步执行消息的发送producer.type=sync ## 异步模式下,那么就会在设置的时间缓存消息,并一次性发送queue.buffering.max.ms = 5000 ## 异步的模式下 最长等待的消息数queue.buffering.max.messages = 10000 ## 异步模式下,进入队列的等待时间 若是设置为0,那么要么进入队列,要么直接抛弃queue.enqueue.timeout.ms = -1 ## 异步模式下,每次发送的最大消息数,前提是触发了queue.buffering.max.messages或是queue.buffering.max.ms的限制batch.num.messages=200 ## 消息体的系列化处理类 ,转化为字节流进行传输serializer.class = kafka.serializer.DefaultEncoder
以上就是分布式消息队列kafka的配置文件是怎么样的,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注行业资讯频道。
消息
时间
配置
大小
参数
数据
若是
最大
日志
消费
文件
处理
控制
地址
模式
数值
同步
队列
之间
最长
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
网络安全与信息化建设情况报告
黄浦区互联网软件开发经验丰富
锡山区多功能软件开发注意事项
华润万家a服务器
苏州软件开发薪资多少
容易上手的软件开发技术
vr程序软件开发 招聘
sql数据库个人版
ai 自动驾驶bsp软件开发
网络安全漏洞英语
大型医院网络安全持续化改进
被数据库收录指的是什么
数据库迁移Oracle
数据库创建和使用表实验步骤
敌特分子网络安全渗透
湖南企业软件开发价格大全
论坛数据库设计 消息
软件开发外包项目不付款
网络安全厦大考研
密云网络安全
计算机网络技术的物理层
联通的什么数据库
64位数据库安装
网络安全的aaa是哪三个a
服务器管理版面
数据库迁移Oracle
百度时代网络技术 北京
fifaol国服数据库
上市公司数据库财务模板
网络安全法中网络安全事件