国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

python - scrapy url去重

瀏覽:126日期:2022-08-24 16:35:16

問題描述

請問scrapy是url自動去重的嗎?比如下面這段代碼,為什么運行時start_urls里面的重復url會重復爬取了?

class TestSpider(scrapy.Spider): name = 'test' allowed_domains = ['baidu.com'] start_urls = [’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, ’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’,] def parse(self, response):for sel in response.xpath(’//p[@class='grid-list grid-list-spot']/ul/li’): item = TestspiderItem() item[’title’] = sel.xpath(’p[@class='list']/a/text()’)[0].extract() item[’link’] = sel.xpath(’p[@class='list']/a/@href’)[0].extract() yield item

問題解答

回答1:

建一個Url管理器,就不會重復抓取了

回答2:

知道了,改成這樣就可以了。

def start_requests(self):

yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)yield scrapy.Request(’http://baike.baidu.com/fenlei/%E5%A8%B1%E4%B9%90%E4%BA%BA%E7%89%A9’, self.parse)

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 成人性毛片 | 国产成人高清一区二区私人 | 国产精品综合久成人 | 97免费视频观看 | 亚洲一区不卡 | 久久视频国产 | 久青草视频在线 | 亚洲国产精品热久久2022 | 国产精品色综合久久 | 久久一日本道色综合久 | 国产粉嫩高中生无套第一次 | 国产精品区一区二区免费 | 欧美手机在线视频 | japanese 色系 tube日本 | 特级黄色毛片视频 | 欧美一区二区三区免费 | 国产亚洲国产bv网站在线 | 日韩欧美视频一区二区在线观看 | 好看的看黄a大片爽爽影院 好男人天堂网 | 性盈盈影院在线观看 | 99在线热视频只有精品免费 | 欧美不卡视频 | 美女一级片视频 | 怡红院亚洲红怡院天堂麻豆 | 毛片一级做a爰片性色 | 国产精品免费久久久免费 | 日韩一区国产二区欧美三 | 99re66热这里只有精品免费观看 | 精品综合久久久久久蜜月 | 国产一区亚洲二区 | 亚洲韩国欧美 | 欧美成视频无需播放器 | 亚洲成综合 | 日韩一区二区三区四区不卡 | 亚洲精品免费在线 | 亚洲国产高清视频在线观看 | 亚洲在线视频播放 | 国产成人一区在线播放 | 成人男男黄网色视频免费 | 久久综合综合久久 | 亚洲欧美日韩另类在线 |