国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

python - scrapy url去重

瀏覽:103日期:2022-08-24 16:35:16

問題描述

請問scrapy是url自動去重的嗎?比如下面這段代碼,為什么運行時start_urls里面的重復url會重復爬取了?

class TestSpider(scrapy.Spider): name = 'test' allowed_domains = ['baidu.com'] start_urls = [’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’,] def parse(self, response):for sel in response.xpath(’//p[@class='grid-list grid-list-spot']/ul/li’): item = TestspiderItem() item[’title’] = sel.xpath(’p[@class='list']/a/text()’)[0].extract() item[’link’] = sel.xpath(’p[@class='list']/a/@href’)[0].extract() yield item

問題解答

回答1:

建一個Url管理器,就不會重復抓取了

回答2:

知道了,改成這樣就可以了。

def start_requests(self):

yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 国产精品1区2区 | 欧美一级片免费在线观看 | 91在线精品亚洲一区二区 | 在线精品国内外视频 | 国产精品日本一区二区不卡视频 | 久久国产中文字幕 | 亚洲精品综合欧美一区二区三区 | 亚洲精品中文字幕一区在线 | 欧美一级高清片在线 | 亚洲国产高清人在线 | 亚洲国产专区 | 日韩一级影片 | 伊人久久大香线焦综合四虎 | 成年18网站免费视频网站 | 亚洲理论欧美理论在线观看 | 日韩 亚洲 制服 欧美 综合 | 视频一区 在线 | www.成年人 | 在线国产毛片 | 国产成年人视频 | 亚洲精品欧美精品中文字幕 | 日本www免费| 久久久久国产免费 | 一级毛片免费在线 | 国产欧美亚洲三区久在线观看 | 综合久色| 亚洲国产精品一区二区九九 | 亚洲高清视频在线播放 | 国产看片视频 | 日韩欧美国产一区二区三区 | 亚洲欧美视频在线播放 | 91看片淫黄大片.在线天堂 | 男人女人做性全程视视频 | 免费国产一区二区三区 | 国产精品久久久久999 | 婷婷在线成人免费观看搜索 | 男女福利| 老司机精品福利视频 | 一级aaa级毛片午夜在线播放 | 在线播放成人高清免费视频 | 亚洲欧美视屏 |