国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

python - 網頁更新數據之后無法再次抓取

瀏覽:115日期:2022-07-05 15:55:15

問題描述

我抓取的網頁今天更新了一條信息,然后爬蟲運行了卻沒有抓取到.

from pyspider.libs.base_handler import *from pyspider.database.mysql.mysqldb import SQLclass Handler(BaseHandler): crawl_config = { } @every(minutes=24 * 60) def on_start(self):self.crawl(’http://www.yxztb.net/yxweb/zypd/012001/012001001/’, callback=self.index_page) @config(age=10 * 24 * 60 * 60) def index_page(self, response):for each in response.doc(’.tdmoreinfosub a’).items(): self.crawl(each.attr.href, callback=self.detail_page)@config(priority=2) def detail_page(self, response):return {'address':'宜興市','url':response.url,'title':response.doc(’font span’).text(),'date' :response.doc(’#tdTitle > .webfont’).text()[8:17], }def on_result(self, result):print resultif not result or not result[’title’]: returnsql = SQL()sql.replace(’zhaobiao’,**result)

python - 網頁更新數據之后無法再次抓取

希望大佬們能講的具體點然后多交流交流

問題解答

回答1:

@config (age)參數設定直接忽略了index.page的執行

回答2:

既然 on_start 的 @every 是一天,那么self.crawl 中設置 age=12 * 60 * 60 半天是比較合適的,保證每次 every 肯定不會被 age 所限制。另外 @config(age=10 * 24 * 60 * 60),這是10天內不要再爬的意思啊。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 亚洲国内自拍 | 亚洲精品久久久久中文 | 免费看一级 | 好吊妞国产欧美日韩视频 | 国产精品免费视频一区二区三区 | 久草最新视频 | 国产成人精品视频播放 | 99热精品在线观看 | av18在线播放 | 欧美孕交视频 | 一级特黄特黄毛片欧美的 | 麻豆一区| 99精品国产一区二区三区 | 丝袜黄色片| 国产在线视频一区二区三区 | 69av美女| 久久免费视频精品 | 国产精品久久免费观看 | 性色a| 免费看黄色片的网站 | 成人软件18免费网站 | 韩国一级a毛片 | 欧美日韩亚洲国内综合网俺 | 乱人伦中文视频在线 | 欧美一区二区三区视频 | 思思99re| 乱人伦中文视频在线观看免费 | 欧洲国产伦久久久久久久 | 一级特黄aaa免费 | 国产成人福利视频网站 | 免费一级片视频 | 2020国产精品 | www.99在线| 欧美1| 国产精品福利社 | 日本不卡一二三 | 成年女人免费看 | 多人伦精品一区二区三区视频 | 美女性视频网站 | 久在线视频| 2020精品极品国产色在线观看 |