国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁(yè)技術(shù)文章
文章詳情頁(yè)

詳解Python爬蟲(chóng)爬取博客園問(wèn)題列表所有的問(wèn)題

瀏覽:19日期:2022-06-29 15:45:01
一.準(zhǔn)備工作 首先,本文使用的技術(shù)為 python+requests+bs4,沒(méi)有了解過(guò)可以先去了解一下。 我們的需求是將博客園問(wèn)題列表中的所有問(wèn)題的題目爬取下來(lái)。

詳解Python爬蟲(chóng)爬取博客園問(wèn)題列表所有的問(wèn)題

二.分析: 首先博客園問(wèn)題列表頁(yè)面右鍵點(diǎn)擊檢查 通過(guò)Element查找問(wèn)題所對(duì)應(yīng)的屬性或標(biāo)簽

詳解Python爬蟲(chóng)爬取博客園問(wèn)題列表所有的問(wèn)題

可以發(fā)現(xiàn)在div class ='one_entity'中存在頁(yè)面中分別對(duì)應(yīng)每一個(gè)問(wèn)題接著div class ='news_item'中h2標(biāo)簽下是我們想要拿到的數(shù)據(jù)

三.代碼實(shí)現(xiàn)

首先導(dǎo)入requests和BeautifulSoup

import requestsfrom bs4 import BeautifulSoup

由于很多網(wǎng)站定義了反爬策略,所以進(jìn)行偽裝一下

headers = { ’User-Agent’: ’Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 87.0.4280.141Safari / 537.36’ }

在這里User-Agent只是其中的一種方式,而且大家的User-Agent可能不同。

爬取數(shù)據(jù)main代碼

url = ’https://q.cnblogs.com/list/unsolved?’ fp = open(’blog’, ’w’, encoding=’utf-8’) for page in range(1,26): page = str(page) param = { ’page’:page } page_text = requests.get(url=url,params=param,headers=headers).text page_soup = BeautifulSoup(page_text,’lxml’) text_list = page_soup.select(’.one_entity > .news_item > h2’) for h2 in text_list: text = h2.a.string fp.write(text+’n’) print(’第’+page+’頁(yè)爬取成功!’)

注意一下這里,由于我們需要的是多張頁(yè)面的數(shù)據(jù),所以在發(fā)送請(qǐng)求的url中我們就要針對(duì)不同的頁(yè)面發(fā)送請(qǐng)求,https://q.cnblogs.com/list/unsolved?page=我們要做的是在發(fā)送請(qǐng)求的url時(shí)候,根據(jù)參數(shù)來(lái)填充頁(yè)數(shù)page,代碼實(shí)現(xiàn):

url = ’https://q.cnblogs.com/list/unsolved?’ for page in range(1,26): page = str(page) param = { ’page’:page } page_text = requests.get(url=url,params=param,headers=headers).text

將所有的h2數(shù)組拿到,進(jìn)行遍歷,通過(guò)取出h2中a標(biāo)簽中的文本,并將每取出來(lái)的文本寫(xiě)入到文件中,由于要遍歷多次,所以保存文件在上面的代碼中。

text_list = page_soup.select(’.one_entity > .news_item > h2’) for h2 in text_list: text = h2.a.string fp.write(text+’n’)

完整代碼如下:

import requestsfrom bs4 import BeautifulSoupif __name__ == ’__main__’: headers = { ’User-Agent’: ’Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 87.0.4280.141Safari / 537.36’ } url = ’https://q.cnblogs.com/list/unsolved?’ fp = open(’blog’, ’w’, encoding=’utf-8’) for page in range(1,26): page = str(page) param = { ’page’:page } page_text = requests.get(url=url,params=param,headers=headers).text page_soup = BeautifulSoup(page_text,’lxml’) text_list = page_soup.select(’.one_entity > .news_item > h2’) for h2 in text_list: text = h2.a.string fp.write(text+’n’) print(’第’+page+’頁(yè)爬取成功!’)四.運(yùn)行結(jié)果

運(yùn)行代碼:

詳解Python爬蟲(chóng)爬取博客園問(wèn)題列表所有的問(wèn)題

詳解Python爬蟲(chóng)爬取博客園問(wèn)題列表所有的問(wèn)題

到此這篇關(guān)于詳解Python爬蟲(chóng)爬取博客園問(wèn)題列表所有的問(wèn)題的文章就介紹到這了,更多相關(guān)Python爬蟲(chóng)爬取列表內(nèi)容請(qǐng)搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 欧美一级大片免费看 | 欧美日韩国产片 | 久操免费在线 | 成人国产片免费 | 91影视永久福利免费观看 | 日本www色视频成人免费网站 | 国产美女拍拍拍在线观看 | 99久久精品免费精品国产 | 粉嫩jk制服美女啪啪 | 午夜免费片在线观看不卡 | 国产精品久久久久无码av | 精品久久久久不卡无毒 | 亚洲一区二区三区免费看 | 欧美日本一区二区三区道 | 99精品视频在线观看免费播放 | 欧美巨大精品欧美一区二区 | 美女黄色免费看 | 国产成人精品日本亚洲专一区 | 国产三级在线观看播放 | 精品一区二区久久 | 中文字幕在线视频在线看 | 久久久久久精 | 午夜性福 | 久久久久久久性潮 | 女人扒开腿让男人捅啪啪 | 欧美成在线播放 | 日韩毛片免费视频一级特黄 | 欧美日韩精品一区二区在线线 | 亚洲精品日本高清中文字幕 | 91久久精品青青草原伊人 | 亚洲加勒比久久88色综合1 | 亚洲国产精品一区二区久久 | 国产三级高清 | 精品欧美激情在线看 | 免看一级一片一在线看 | 成年女人毛片免费播放视频m | 国产一区亚洲二区三区毛片 | 免费看成人播放毛片 | 2022日韩理论片在线观看 | 欧美成人看片一区二区三区 | 免费高清国产 |