国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術(shù)文章
文章詳情頁

python - 如何爬取豆瓣電影的詳細(xì)信息

瀏覽:141日期:2022-09-22 08:53:05

問題描述

我想爬取每個電影的制片國家地區(qū),但是它上面并不在一個標(biāo)簽里面應(yīng)該怎么辦python - 如何爬取豆瓣電影的詳細(xì)信息我用的是request和BeautifulSoup

res2=requests.get(h2)res2.encoding=’utf-8’soup2=BeautifulSoup(res2.text)

這部分是已經(jīng)獲取該網(wǎng)頁

問題解答

回答1:

參考以下代碼:

#!/usr/bin/env python# -*- coding:utf-8 -*-import reimport requestsfrom bs4 import BeautifulSoupresult = requests.get(’https://movie.douban.com/subject/3541415/’)result.encoding = ’utf-8’soup = BeautifulSoup(result.text, ’html.parser’)try: info = soup.select(’#info’)[0] print re.findall(ur’(?<=制片國家/地區(qū): ).+?(?=n)’, info.text)[0]except Exception, e: print e回答2:

正則匹配</span>和<br>之間的內(nèi)容。

回答3:

1、可以用正則

2、建議用soup.find_all看文檔

https://www.crummy.com/softwa...

soup.find_all('title')# [<title>The Dormouse’s story</title>]soup.find_all('p', 'title')# [<p class='title'><b>The Dormouse’s story</b></p>]soup.find_all('a')# [<a id='link1'>Elsie</a>,# <a id='link2'>Lacie</a>,# <a id='link3'>Tillie</a>]soup.find_all(id='link2')# [<a id='link2'>Lacie</a>]

黃哥Python 回答

標(biāo)簽: 豆瓣 Python
相關(guān)文章:
主站蜘蛛池模板: 日韩视频免费一区二区三区 | 完整日本特级毛片 | 男女扒开双腿猛进入免费网站 | 日韩性片 | 黄色毛片免费 | 欧美在线视频二区 | 中文在线视频观看 | 日本三级韩国三级在线观看a级 | 三级网站免费观看 | 九草视频 | 国产一级做a爰片在线 | 2021国产成人精品久久 | 4四虎44虎www在线影院麻豆 | 性生话一级国产片 | 成人www视频网站免费观看 | 久久亚洲成人 | 泰国情欲片寂寞的寡妇在线观看 | 欧美一级手机免费观看片 | 免费视频 久久久 | 久久看精品| 成人免费一区二区三区在线观看 | 久久福利青草精品资源 | 国产在线综合一区二区三区 | 久久99精品九九九久久婷婷 | 国产成人久久精品推最新 | 国产成人亚洲精品无广告 | 欧美性色黄大片在线观看 | 99re6热视频精品免费观看 | 亚洲免费色视频 | 久久精品国产亚洲综合色 | 中文字幕亚洲一区 | 亚洲国产精| 九九精品成人免费国产片 | 久久免费精品国产视频 | 午夜视频一区二区三区 | 欧美成人免费观看的 | 国产精品高清在线观看93 | 在线日本视频 | 99在线视频精品费观看视 | 久草黄视频 | 亚洲国产精久久久久久久 |