python - 如何使用pykafka consumer進行數(shù)據(jù)處理并保存?
問題描述
使用本地kafka bin/kafka-console-producer.sh --broker-list kafkaIP:port --topic topicName創(chuàng)建命令行生產(chǎn)數(shù)據(jù),然后打開python
from pykafka import KafkaClientclient = KafkaClient(hosts='192.168.x.x:9092')topic = client.topics[’wr_test’]consumer = topic.get_balanced_consumer(consumer_group=’test-consumer-group’,auto_commit_enable=True,zookeeper_connect=’192.168.x.x:2121’)
然后自己編寫了簡單的一套處理函數(shù),從外部引用。將數(shù)據(jù)處理后存入elasticsearch 或者 數(shù)據(jù)庫比如for msg in consumer:
if msg is not None: 外部引入的處理函數(shù)(msg.value)
在python命令行for msg in consumer:
print msg.offset, msg.value
這時候使用生產(chǎn)者敲入一些數(shù)據(jù),在消費端就會就會立即打印出來但是寫成py文件之后,每次運行只會處理最近的生產(chǎn)的一次內(nèi)容,在生產(chǎn)者中再進行輸入一些內(nèi)容,py文件就不會再進行數(shù)據(jù)處理了。所以向問下如何編寫能運行后能一直對消費者數(shù)據(jù)進行處理的函數(shù)?要注意哪些地方?
另外,get_balanced_consumer的方法,是連接zookeeper消費使用topic.get_simple_consumer是直接消費kafka,使用這種方式就提示No handler for...的錯誤
還有一個疑問,就是實際生產(chǎn)環(huán)境日志產(chǎn)生量很快,應該如何編寫一個多線程處理方法?
問題解答
回答1:在別人的博客看到一種替代的解決方案http://www.cnblogs.com/castle...從consumer中將msg.value讀取到一個列表當中,然后從列表中讀取數(shù)據(jù)進行數(shù)據(jù)處理,當這個流程結(jié)束后,再把列表中獲取的數(shù)據(jù)pop掉。另外也要用try: ... except :... continue
相關(guān)文章:
1. 在mybatis使用mysql的ON DUPLICATE KEY UPDATE語法實現(xiàn)存在即更新應該使用哪個標簽?2. mysql - 數(shù)據(jù)庫建字段,默認值空和empty string有什么區(qū)別 1103. mysql - 這種分級一對多,且分級不平衡的模型該怎么設(shè)計表?4. Navicat for mysql 中以json格式儲存的數(shù)據(jù)存在大量反斜杠,如何去除?5. mac OSX10.12.4 (16E195)下Mysql 5.7.18找不到配置文件my.cnf6. mysql mysql_real_escape_string() 轉(zhuǎn)義問題7. 新人求教MySQL關(guān)于判斷后拼接條件進行查詢的sql語句8. mysql - 千萬數(shù)據(jù) 分頁,當偏移量 原來越大時,怎么優(yōu)化速度9. MySQL FOREIGN KEY 約束報錯10. mysql - 數(shù)據(jù)庫表中,兩個表互為外鍵參考如何解決
