国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術(shù)文章
文章詳情頁

python - 為什么用requests庫能爬取而用scrapy卻不能?

瀏覽:108日期:2022-09-08 13:31:18

問題描述

# -*- coding: utf-8 -*-import requestsdef xici_request(): url = ’http://www.xicidaili.com’ headers = {’Accept’: ’text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8’,’Accept-Encoding’: ’gzip, deflate, sdch’,’Accept-Language’: ’zh-CN,zh;q=0.8’,’Cache-Control’: ’max-age=0’,’Connection’: ’keep-alive’,’Host’: ’www.xicidaili.com’,’Referer’: ’https://www.google.com/’,’User-Agent’: ’Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36’ res = requests.get(url, headers=headers) print(res.text)if __name__ == ’__main__’: xici_request()

# -*- coding: utf-8 -*-import scrapyfrom collectips.items import CollectipsItemclass XiciSpider(scrapy.Spider): name = 'xici' allowed_domains = ['http://www.xicidaili.com'] headers = {’Accept’: ’text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8’, ’Accept-Encoding’: ’gzip, deflate, sdch’, ’Accept-Language’: ’zh-CN,zh;q=0.8’, ’Cache-Control’: ’max-age=0’, ’Connection’: ’keep-alive’, ’Host’: ’www.xicidaili.com’, ’Referer’: ’https://www.google.com/’, ’User-Agent’: ’Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36’} def start_requests(self):reqs = []for i in range(1, 21): req = scrapy.Request(’http://www.xicidaili.com/nn/{}’.format(i), headers=self.headers) reqs.append(req)return reqs def parse(self, response):item = CollectipsItem()sel = response.selectorfor i in range(2, 102): item[’IP’] = sel.xpath(’//*[@id='ip_list']/tbody/tr[{}]/td[2]/text()’.format(i)).extract() item[’PORT’] = sel.xpath(’//*[@id='ip_list']/tbody/tr[{}]/td[3]/text()’.format(i)).extract() item[’DNS_POSITION’] = sel.xpath(’//*[@id='ip_list']/tbody/tr[{}]/td[4]/a/text()’.format(i)).extract() item[’TYPE’] = sel.xpath(’//*[@id='ip_list']/tbody/tr[{}]/td[6]/text()’.format(i)).extract() item[’SPEED’] = sel.xpath(’//*[@id='ip_list']/tbody/tr[{}]/td[7]/p[@title]’.format(i)).extract() item[’LAST_CHECK_TIME’] = sel.xpath(’//*[@id='ip_list']/tbody/tr[{}]/td[10]/text()’.format(i)).extract() yield item

代碼如上,為什么requests能返回網(wǎng)頁內(nèi)容,而scrapy卻是報錯內(nèi)部服務(wù)器錯誤500? 請大神解救??

問題解答

回答1:

并發(fā)你沒考慮進去吧,當(dāng)同一時間發(fā)起過多的請求會直接封你IP

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 香蕉国产人午夜视频在线观看 | 99www综合久久爱com | 国产成人在线播放 | 国产理论视频 | 国产99久久精品 | 欧美视频久久 | 欧美a一片xxxx片 | 国产伦码精品一区二区三区 | 中文字幕在线永久 | 综合欧美日韩一区二区三区 | 特级做a爰片毛片免费看一区 | 久久久国产99久久国产一 | 国产永久在线观看 | 男女那个视频免费 | 国产成人精品永久免费视频 | 91精品国产高清久久久久 | 国产欧美日韩在线观看精品 | 综合图片亚洲网友自拍10p | 一级a美女毛片 | 欧美高清视频在线观看 | 狠狠色丁香婷婷综合久久来 | 亚洲精品日韩一区二区 | 亚洲一区二区三区福利在线 | 成人 欧美 | 国产精品青草久久福利不卡 | 久久亚洲私人国产精品va | 日韩在线中文 | 欧美成a人片在线观看久 | 99在线播放视频 | 欧美 在线 成 人怡红院 | 欧美一区在线观看视频 | 国产精品久久国产三级国电话系列 | 免费五级在线观看日本片 | 欧美精品在线视频观看 | 国产成人精品日本亚洲网址 | 国产深夜福利视频观看 | 国产成人v视频在线观看 | 免费看毛片网 | 五月色婷婷综合开心网亚 | 国产碰碰 | 玖玖爱zh综合伊人久久 |