国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術(shù)文章
文章詳情頁

python - 如何爬取豆瓣電影的詳細(xì)信息

瀏覽:141日期:2022-09-22 08:53:05

問題描述

我想爬取每個電影的制片國家地區(qū),但是它上面并不在一個標(biāo)簽里面應(yīng)該怎么辦python - 如何爬取豆瓣電影的詳細(xì)信息我用的是request和BeautifulSoup

res2=requests.get(h2)res2.encoding=’utf-8’soup2=BeautifulSoup(res2.text)

這部分是已經(jīng)獲取該網(wǎng)頁

問題解答

回答1:

參考以下代碼:

#!/usr/bin/env python# -*- coding:utf-8 -*-import reimport requestsfrom bs4 import BeautifulSoupresult = requests.get(’https://movie.douban.com/subject/3541415/’)result.encoding = ’utf-8’soup = BeautifulSoup(result.text, ’html.parser’)try: info = soup.select(’#info’)[0] print re.findall(ur’(?<=制片國家/地區(qū): ).+?(?=n)’, info.text)[0]except Exception, e: print e回答2:

正則匹配</span>和<br>之間的內(nèi)容。

回答3:

1、可以用正則

2、建議用soup.find_all看文檔

https://www.crummy.com/softwa...

soup.find_all('title')# [<title>The Dormouse’s story</title>]soup.find_all('p', 'title')# [<p class='title'><b>The Dormouse’s story</b></p>]soup.find_all('a')# [<a id='link1'>Elsie</a>,# <a id='link2'>Lacie</a>,# <a id='link3'>Tillie</a>]soup.find_all(id='link2')# [<a id='link2'>Lacie</a>]

黃哥Python 回答

標(biāo)簽: 豆瓣 Python
相關(guān)文章:
主站蜘蛛池模板: 久草综合视频 | 成年人视频在线免费播放 | 久艹在线观看 | 97视频在线播放 | 欧美13一14sexvideo欧 | 日本在线观看免费视频 | 亚洲免费成人在线 | 久青草国产97香蕉在线视频xx | 亚洲第一网站在线观看 | 久草资源网 | 中国美女黄色一级片 | 中文字幕在线视频精品 | 最新国产美女肝交视频播放 | www.欧美成人 | 欧美一区二区三区久久综 | 欧美成人精品在线 | 午夜性刺激免费视频观看不卡专区 | 欧美成人做爰网站 | 成人 欧美 | 亚洲厕拍 | 日产国产精品亚洲系列 | 九草视频 | 亚洲理论片在线中文字幕 | 性夜影院爽黄a爽免费看网站 | 亚洲 欧美 都市 自拍 在线 | 欧美成人一级毛片 | 一级女性全黄久久生活片免费 | 老师张开腿让我爽了一夜视频 | 欧美另类视频一区二区三区 | 欧美激情精品久久久久久久久久 | 九九精品免费观看在线 | 成人三级做爰在线观看男女 | 日韩精品在线播放 | 最新亚洲情黄在线网站无广告 | 日本精品在线观看 | 性色aⅴ在线观看swag | 看一级毛片一区二区三区免费 | 美女视频黄a视频免费全过程 | 91久久线看在观草草青青 | 一区二区三区高清不卡 | 欧美啪啪一级毛片 |