国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

Python scrapy爬取小說代碼案例詳解

瀏覽:55日期:2022-07-18 09:56:43

scrapy是目前python使用的最廣泛的爬蟲框架

架構圖如下

Python scrapy爬取小說代碼案例詳解

解釋:

Scrapy Engine(引擎): 負責Spider、ItemPipeline、Downloader、Scheduler中間的通訊,信號、數據傳遞等。 Scheduler(調度器): 它負責接受引擎發送過來的Request請求,并按照一定的方式進行整理排列,入隊,當引擎需要時,交還給引擎。 Downloader(下載器):負責下載Scrapy Engine(引擎)發送的所有Requests請求,并將其獲取到的Responses交還給Scrapy Engine(引擎),由引擎交給Spider來處理, Spider(爬蟲):它負責處理所有Responses,從中分析提取數據,獲取Item字段需要的數據,并將需要跟進的URL提交給引擎,再次進入Scheduler(調度器), Item Pipeline(管道):它負責處理Spider中獲取到的Item,并進行進行后期處理(詳細分析、過濾、存儲等)的地方. DownloaderMiddlewares(下載中間件):你可以當作是一個可以自定義擴展下載功能的組件。Spider Middlewares(Spider中間件):你可以理解為是一個可以自定擴展和操作引擎和Spider中間通信的功能組件(比如進入Spider的Responses;和從Spider出去的Requests

一。安裝

pip install Twisted.whl

pip install Scrapy

Twisted的版本要與安裝的python對應,https://jingyan.baidu.com/article/1709ad8027be404634c4f0e8.html

二。代碼

本實例采用xpaths解析頁面數據

按住shift-右鍵-在此處打開命令窗口

輸入scrapy startproject qiushibaike 創建項目

輸入scrapy genspiderqiushibaike 創建爬蟲

1>結構

Python scrapy爬取小說代碼案例詳解

2>qiushibaike.py爬蟲文件

import scrapyfrom scrapy.linkextractors import LinkExtractorfrom scrapy.spiders.crawl import Rule, CrawlSpiderclass BaiduSpider(CrawlSpider): name = ’qiushibaike’ allowed_domains = [’qiushibaike.com’] start_urls = [’https://www.qiushibaike.com/text/’]#啟始頁面# rules= ( Rule(LinkExtractor(restrict_xpaths=r’//a[@class='contentHerf']’),callback=’parse_item’,follow=True), Rule(LinkExtractor(restrict_xpaths=r’//ul[@class='pagination']/li/a’),follow=True) ) def parse_item(self, response): title=response.xpath(’//h1[@class='article-title']/text()’).extract_first().strip() #標題 time=response.xpath(’ //span[@class='stats-time']/text()’).extract_first().strip() #發布時間 content=response.xpath(’//div[@class='content']/text()’).extract_first().replace(’’,’n’) #內容 score=response.xpath(’//i[@class='number']/text()’).extract_first().strip() #好笑數 yield({'title':title,'content':content,'time':time,'score':score});

3>pipelines.py 數據管道[code]class QiushibaikePipeline:

class QiushibaikePipeline: def open_spider(self,spider):#啟動爬蟲中調用 self.f=open('xiaoshuo.txt','w',encoding=’utf-8’) def process_item(self, item, spider): info=item.get('title')+'n'+ item.get('time')+' 好笑數'+item.get('score')+'n'+ item.get('content')+’n’ self.f.write(info+'n') self.f.flush() def close_spider(self,spider):#關閉爬蟲中調用 self.f.close()

4>settings.py

開啟ZhonghengPipeline

ITEM_PIPELINES = { ’qiushibaike.pipelines.QiushibaikePipeline’: 300,}

5>0main.py運行

from scrapy.cmdline import executeexecute(’scrapy crawl qiushibaike’.split())

6>結果:

生成xiaohua.txt,里面有下載的笑話文字

Python scrapy爬取小說代碼案例詳解

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持好吧啦網。

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 在线免费观看国产 | 九九视频在线观看 | 99九九99九九九视频精品 | 一级片免费网址 | 国产欧美亚洲三区久在线观看 | 国产欧美一区二区三区久久 | 亚洲男人的天堂视频 | 毛片免费全部免费播放 | 精品久久九九 | 久久久久久久性高清毛片 | 国产免费一级高清淫曰本片 | 国产手机视频 | 在线精品国产一区二区 | 毛片高清一区二区三区 | 99久久视频| 97在线视频免费 | 色噜噜国产精品视频一区二区 | 91看片淫黄大片.在线天堂 | 日韩啪 | 亚洲欧洲日产国码二区首页 | 欧美一级性 | 免费一级淫片aaa片毛片a级 | 国产欧美一区二区精品久久久 | 91免费国产高清观看 | 久久a 热6 | 免费视频一区二区 | 国产91丝袜在线播放九色 | 欧美在线视频免费 | 久久在线影院 | 国产成人高清亚洲一区久久 | 日本欧美做爰全免费的视频 | 日本免费一二区视频 | 久久se精品一区二区国产 | 成年人在线视频观看 | 在线国产三级 | 韩国在线精品福利视频在线观看 | 欧美日比视频 | 97精品国产综合久久久久久欧美 | 色视频在线观看免费 | 亚洲综合视频网 | 毛片在线视频在线播放 |