文章詳情頁
python - scrapy運(yùn)行爬蟲一打開就關(guān)閉了沒有爬取到數(shù)據(jù)是什么原因
瀏覽:75日期:2022-08-05 15:09:38
問題描述
爬蟲運(yùn)行遇到如此問題要怎么解決
問題解答
回答1:很可能是你的爬取規(guī)則出錯,也就是說你的spider代碼里面的xpath(或者其他解析工具)的規(guī)則錯誤。導(dǎo)致沒爬取到。你可以把網(wǎng)址print出來,看看是不是[]
相關(guān)文章:
1. java - Web開發(fā) - POI導(dǎo)出帶有下拉框的Excel和解決下拉中數(shù)組過多而產(chǎn)生的異常2. Python做掃描,發(fā)包速度實(shí)在是太慢了,有優(yōu)化的方案嗎?3. javascript - 關(guān)于定時器 與 防止連續(xù)點(diǎn)擊 問題4. objective-c - ios百度地圖定位問題5. java - 微信退款,公賬號向個人轉(zhuǎn)賬SSL驗(yàn)證失敗6. python - 使用xlsxwriter寫入Excel, 只能寫入65536 無法繼續(xù)寫入.7. python - flask如何創(chuàng)建中文列名的數(shù)據(jù)表8. java - 安卓接入微信登錄,onCreate不會執(zhí)行9. 微信開放平臺 - Android調(diào)用微信分享不顯示10. python - mysql 如何設(shè)置通用型字段? 比如像mongodb那樣
排行榜

熱門標(biāo)簽