国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

網頁爬蟲 - Python3.6 下的爬蟲總是重復爬第一頁的內容

瀏覽:124日期:2022-06-30 17:08:03

問題描述

問題如題:改成while,試了很多,然沒有效果,請教大家

# coding:utf-8# from lxml import etreeimport requests,lxml.html,osclass MyError(Exception): def __init__(self, value):self.value = value def __str__(self):return repr(self.value) def get_lawyers_info(url): r = requests.get(url) html = lxml.html.fromstring(r.content) # phones = html.xpath(’//span[@class='law-tel']’) phones = html.xpath(’//span[@class='phone pull-right']’) # names = html.xpath(’//p[@class='fl']/p/a’) names = html.xpath(’//h4[@class='text-center']’) if(len(phones) == len(names)):list(zip(names,phones))phone_infos = [(names[i].text, phones[i].text_content()) for i in range(len(names))] else:error = 'Lawyers amount are not equal to the amount of phone_nums: '+urlraise MyError(error) phone_infos_list = [] for phone_info in phone_infos:if(phone_info[0] == ''): info = '沒留姓名'+': '+phone_info[1]+'rn'else: info = phone_info[0]+': '+phone_info[1]+'rn'print (info)phone_infos_list.append(info) return phone_infos_listdir_path = os.path.abspath(os.path.dirname(__file__))print (dir_path)file_path = os.path.join(dir_path,'lawyers_info.txt')print (file_path)if os.path.exists(file_path): os.remove(file_path)with open('lawyers_info.txt','ab') as file: for i in range(1000):url = 'http://www.xxxx.com/cooperative_merchants?searchText=&industry=100&provinceId=19&cityId=0&areaId=0&page='+str(i+1)# r = requests.get(url)# html = lxml.html.fromstring(r.content)# phones = html.xpath(’//span[@class='phone pull-right']’)# names = html.xpath(’//h4[@class='text-center']’) # if phones or names:info = get_lawyers_info(url)for each in info: file.write(each.encode('gbk'))

問題解答

回答1:

# coding: utf-8import requestsfrom pyquery import PyQuery as Qurl = ’http://www.51myd.com/cooperative_merchants?industry=100&provinceId=19&cityId=0&areaId=0&page=’with open(’lawyers_info.txt’, ’ab’) as f: for i in range(1, 5):r = requests.get(’{}{}’.format(url, i))usernames = Q(r.text).find(’.username’).text().split()phones = Q(r.text).find(’.phone’).text().split()print zip(usernames, phones)

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 国产亚洲精品一区二区三区 | 日韩三级视频在线 | 亚洲综合日韩精品欧美综合区 | 久草视频免费播放 | 久青草国产在线 | 国产欧美一区二区另类精品 | 男女视频在线免费观看 | 欧美成人性色区 | 97人摸人人澡人人人超一碰 | a一级网站| 日韩精品免费一区二区 | 久久夜色精品国产噜噜亚洲a | 中文在线视频观看 | 色在线看 | 欧美经典成人在观看线视频 | 欧美一级欧美一级毛片 | 成在线人视频免费视频 | 日韩欧美一二区 | 国产婷婷成人久久av免费高清 | 久久香蕉国产线看观看精品yw | 亚洲成人在线免费 | 国产成人精品亚洲日本语音 | 午夜影院啪啪 | 欧美国产成人精品一区二区三区 | 午夜毛片不卡高清免费 | 91香蕉成人免费网站 | 经典香港a毛片免费观看 | 国产一区在线免费观看 | 亚洲精品系列 | 9久re在线观看视频精品 | 高清偷自拍第1页 | 国产视频久久久久 | 香蕉香蕉国产片一级一级毛片 | 亚洲国产一 | 久草在线免费资源 | 国产精品v一区二区三区 | 玖玖视频精品 | 久久免费99精品久久久久久 | 亚州中文 | 亚洲夜色 | 国产高清美女一级a毛片久久w |