博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
消费滚动滴log日志文件(flume监听,kafka消费,zookeeper协同)
阅读量:6614 次
发布时间:2019-06-24

本文共 1254 字,大约阅读时间需要 4 分钟。

第一步:数据源

  手写程序实现自动生成如下格式的日志文件:

    15837312345,13737312345,2017-01-09 08:09:10,0360

  打包放到服务器,使用如下命令执行,模拟持续不断的日志文件:

    java -cp ct_producter-1.0-SNAPSHOT.jar producter.ProductLog ./awen.tsv

第二步:监听log.tsv日志

  使用Flume监控滚动的awen.tsv日志,编写flume

# Name the components on this agent a1.sources = r1a1.sinks = k1 a1.channels = c1# Describe/configure the source a1.sources.r1.type = execa1.sources.r1.command = tail -F /home/hadoop/datas/awen.tsva1.sources.r1.shell = /bin/bash -c# Describe the sink a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSinka1.sinks.k1.topic=flume01a1.sinks.k1.brokerList = hadoop1:9092a1.sinks.k1.requiredAcks = 1a1.sinks.k1.batchSize = 20a1.sinks.k1.channel = c1# Use a channel which buffers events in memory a1.channels.c1.type = memory a1.channels.c1.capacity = 1000a1.channels.c1.transactionCapacity = 100# Bind the source and sink to the channela1.sources.r1.channels = c1 a1.sinks.k1.channel = c1

 

  执行如下命令进行监控awen.tsv日志文件的滚动

    bin/flume-ng agent --conf conf/ --name a1 --conf-file /home/hadoop/datas/tsv-flume-kafka/flume-kafka.conf

第三步:消费topic数据

    bin/kafka-console-consumer.sh --zookeeper hadoop1:2181 --topic flume01 --consumer.config config/consumer.properties

转载于:https://www.cnblogs.com/gentle-awen/p/10045215.html

你可能感兴趣的文章
前端需要了解的 SSO 与 CAS 知识
查看>>
李开复谈未来工作:虽然会被AI取代,但谁说人类非得工作不可?
查看>>
2015.08.21结构体指针
查看>>
PostgreSQL 空间切割(st_split)功能扩展 - 空间对象网格化
查看>>
Intercom的持续部署实践:一天部署100次,1次10分钟
查看>>
做好数据分析必备的5种典型可视化图表
查看>>
Windows I/O模型、同步/异步、阻塞/非阻塞
查看>>
SpringBoot权限控制
查看>>
网络遭受APTs攻击的五个信号
查看>>
C语言算法--统计字符串中单词的个数
查看>>
30万奖金!还带你奔赴加拿大相约KDD!?阿里聚安全算法挑战赛带你飞起!
查看>>
英特尔凌琦:大数据带来的机遇和挑战
查看>>
2017——Linux崛起的时代
查看>>
Devstack — screen 调试工具的使用
查看>>
壮士断腕!WordPress宣布停止使用React
查看>>
WCF版的PetShop之二:模块中的层次划分[提供源代码下载]
查看>>
RabbitMQ常用命令
查看>>
阿里云中间件技术 促进互联网高速发展
查看>>
Fusion-io: 全闪存超大规模数据中心时代的到来
查看>>
LSI针对富士通服务器推出高密度SAS存储设备
查看>>