国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

python - 如何使用pykafka consumer進行數據處理并保存?

瀏覽:108日期:2022-07-29 10:47:55

問題描述

使用本地kafka bin/kafka-console-producer.sh --broker-list kafkaIP:port --topic topicName創建命令行生產數據,然后打開python

from pykafka import KafkaClientclient = KafkaClient(hosts='192.168.x.x:9092')topic = client.topics[’wr_test’]consumer = topic.get_balanced_consumer(consumer_group=’test-consumer-group’,auto_commit_enable=True,zookeeper_connect=’192.168.x.x:2121’)

然后自己編寫了簡單的一套處理函數,從外部引用。將數據處理后存入elasticsearch 或者 數據庫比如for msg in consumer:

if msg is not None: 外部引入的處理函數(msg.value)

在python命令行for msg in consumer:

print msg.offset, msg.value

這時候使用生產者敲入一些數據,在消費端就會就會立即打印出來但是寫成py文件之后,每次運行只會處理最近的生產的一次內容,在生產者中再進行輸入一些內容,py文件就不會再進行數據處理了。所以向問下如何編寫能運行后能一直對消費者數據進行處理的函數?要注意哪些地方?

另外,get_balanced_consumer的方法,是連接zookeeper消費使用topic.get_simple_consumer是直接消費kafka,使用這種方式就提示No handler for...的錯誤

還有一個疑問,就是實際生產環境日志產生量很快,應該如何編寫一個多線程處理方法?

問題解答

回答1:

在別人的博客看到一種替代的解決方案http://www.cnblogs.com/castle...從consumer中將msg.value讀取到一個列表當中,然后從列表中讀取數據進行數據處理,當這個流程結束后,再把列表中獲取的數據pop掉。另外也要用try: ... except :... continue

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 亚洲高清国产一区二区三区 | 亚洲在线小视频 | 古代级a毛片可以免费看 | 欧美激情欧美狂野欧美精品免费 | 国产一国产一有一级毛片 | 国产成人精品天堂 | 国内精品小视频福利网址 | 国产第二页 | 曰韩三级 | 亚洲精品资源网在线观看 | 点击进入不卡毛片免费观看 | 欧亚毛片| 精品视频在线免费播放 | 一级片国产 | 亚洲免费人成在线视频观看 | 国产欧美成人一区二区三区 | 欧美一做特黄毛片 | 人成免费网站 | 国产成人精品福利网站在线观看 | 日本美女黄网站 | 国产伦子伦视频免费 | 久久er热这里只有精品免费 | 欧美日韩在线看 | 亚洲一区二区影视 | 一级做性色a爰片久久毛片 一级做性色a爰片久久毛片免费 | 欧美三级真做在线观看 | 亚洲国产激情一区二区三区 | 特级一级毛片视频免费观看 | 日本三级网站在线观看 | 中文字幕人成乱码在线观看 | 亚洲精品一区二区不卡 | 成人亚洲网站 | 99看视频| 美国一级毛片视频 | 国产成人久久精品麻豆二区 | 久久久精品视频免费观看 | 欧美一级α片毛片免费观看 | 毛片在线看网站 | 成人a毛片手机免费播放 | 免费在线一区二区三区 | 日韩精品在线一区 |