非kerberos环境下,flume采集日志到kafka
发表于:2025-12-02 作者:千家信息网编辑
千家信息网最后更新 2025年12月02日,kafkaflume.confagent.sources = s1agent.channels = c1agent.sinks = k1agent.sources.s1.type=execagent.
千家信息网最后更新 2025年12月02日非kerberos环境下,flume采集日志到kafka
kafkaflume.conf
agent.sources = s1agent.channels = c1agent.sinks = k1agent.sources.s1.type=execagent.sources.s1.command=tail -F /usr/local/src/flume/testflume2.logagent.sources.s1.channels=c1agent.channels.c1.type=memoryagent.channels.c1.capacity=10000agent.channels.c1.transactionCapacity=100#设置Kafka接收器#agent.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink##设置Kafka的broker地址和端口号agent.sinks.k1.kafka.bootstrap.servers = master:9092,node01:9092,node02:9092##设置Kafka的Topicagent.sinks.k1.kafka.topic = mydemo5##设置序列化方式##agent.sinks.k1.kafka.flumeBatchSize = 20agent.sinks.k1.kafka.producer.acks = 1agent.sinks.k1.kafka.producer.linger.ms = 1agent.sinks.ki.kafka.producer.compression.type = snappyagent.sinks.k1.channel=c1创建一个topic
kafka-topics --create --zookeeper master:2181/kafka --replication-factor 2 --partitions 3 --topic mydemo5启动flume作为消息生产者写道kafka上
flume-ng agent -c conf -f kafkaflume.conf -n agent -Dflume.root.logger=INFO,console消费kafka的数据
kafka-console-consumer --bootstrap-server master:9092 --topic mydemo5 --from-beginning读取一个文件的内容写入追加到新的文件
#!/bin/bashwhile read linedo echo $line sleep 0.01 echo -e $line >> /usr/local/src/flume/testflume2.logdone < /etc/sudo-ldap.conf
文件
内容
口号
地址
序列
接收器
数据
方式
消息
生产者
消费
生产
日志
环境
数据库的安全要保护哪些东西
数据库安全各自的含义是什么
生产安全数据库录入
数据库的安全性及管理
数据库安全策略包含哪些
海淀数据库安全审计系统
建立农村房屋安全信息数据库
易用的数据库客户端支持安全管理
连接数据库失败ssl安全错误
数据库的锁怎样保障安全
win7网络安全警告怎么关闭
互联网科技助力厅堂转型
如何关闭数据库对象重命名
西安学习软件开发的学校
上海企业做网络安全
管理系统不用数据库
t6的现存量数据库是哪个
ssl是网络安全协议吗
vip期刊数据库
网络安全售前需要掌握的技能
批量删除数据库库存
ftp服务器安全权限设置
网络安全完全防御
数据库不停的被锁什么原因
小组数据库和报告
教师论文哪个数据库收录比较好
网络安全与防范实验心得体会
mysql 数据库推送
山东春考网络技术可以考的学校
昊喆网络技术有限公司
服务器光缆
侦刑中心的网络安全设备
供应商的网络安全问题
cs结构软件开发
外国人能玩lol服务器吗
批量删除数据库库存
无极数据库是什么
广州佳美互联网科技有限公司
超高频软件开发
网页的服务器