文章詳情頁
使用python scrapy框架,循環(huán)爬取URL, 每次運(yùn)行一段時(shí)間后直接卡死,沒有任何報(bào)錯(cuò)
瀏覽:71日期:2022-06-28 18:15:35
問題描述
每次運(yùn)行半小時(shí)左右, 直接卡死, log里沒有任何報(bào)錯(cuò), 卡死的時(shí)候CPU占用率非常高
我在setting.py里設(shè)置了download timeout,不是超時(shí)的原因
ctrl-c無法正常退出, ctrl-z退出以后, 繼續(xù)執(zhí)行還是同樣的問題, 半小時(shí)后再次卡死
問題解答
回答1:先TOP看看是內(nèi)否過高,還是CPU過高,再找到是被哪些進(jìn)程占用了如果都是你的爬蟲進(jìn)程,那就得排查代碼,看看是不是哪里一直未被釋放
總之從各方面去排查吧
回答2:strace
排行榜

熱門標(biāo)簽