scrapy在python爬蟲(chóng)中使用時(shí)需要注意哪些問(wèn)題-創(chuàng)新互聯(lián)

本篇文章為大家展示了scrapy在python爬蟲(chóng)中使用時(shí)需要注意哪些問(wèn)題,內(nèi)容簡(jiǎn)明扼要并且容易理解,絕對(duì)能使你眼前一亮,通過(guò)這篇文章的詳細(xì)介紹希望你能有所收獲。

創(chuàng)新互聯(lián)堅(jiān)持“要么做到,要么別承諾”的工作理念,服務(wù)領(lǐng)域包括:成都網(wǎng)站設(shè)計(jì)、網(wǎng)站制作、企業(yè)官網(wǎng)、英文網(wǎng)站、手機(jī)端網(wǎng)站、網(wǎng)站推廣等服務(wù),滿(mǎn)足客戶(hù)于互聯(lián)網(wǎng)時(shí)代的杭錦后網(wǎng)站設(shè)計(jì)、移動(dòng)媒體設(shè)計(jì)的需求,幫助企業(yè)找到有效的互聯(lián)網(wǎng)解決方案。努力成為您成熟可靠的網(wǎng)絡(luò)建設(shè)合作伙伴!

1.如果需要大批量分布式爬取,建議采用Redis數(shù)據(jù)庫(kù)存儲(chǔ),可安裝scrapy-redis,使用redis數(shù)據(jù)庫(kù)來(lái)替換scrapy原本使用的隊(duì)列結(jié)構(gòu)(deque),并配合其它數(shù)據(jù)庫(kù)存儲(chǔ),例如MySQL或者M(jìn)ongoDB,爬取效率將會(huì)極大提高。并且其自帶的dupefilter.py負(fù)責(zé)執(zhí)行requst的去重,使用redis的set數(shù)據(jù)結(jié)構(gòu),通過(guò)settings文件正確設(shè)置后,即便停止scrapy爬蟲(chóng),當(dāng)下次重新開(kāi)始后也能自動(dòng)去重。原因就是在redis已經(jīng)存儲(chǔ)了request的信息。


2.當(dāng)涉及到代理IP,Headers頭中間請(qǐng)求信息處理的時(shí)候,可以通過(guò)中間件Middleware來(lái)實(shí)現(xiàn)。Spider中間件是介入到Scrapy的spider處理機(jī)制的鉤子框架,可以添加代碼來(lái)處理發(fā)送給 Spiders的response及spider產(chǎn)生的item和request。

3.合理設(shè)置settings文件,需要熟練掌握settings的各種設(shè)置。

4.可以重新定義def start_requests(self)函數(shù)來(lái)加載cookie信息,form信息的提交用scrapy.FormRequest以及scrapy.FormRequest.from_response這兩個(gè)函數(shù),scrapy.FormRequest.from_response能實(shí)現(xiàn)自動(dòng)提交form數(shù)據(jù)。

5.采用Scrapy+phantomJS。 downloadMiddleware 對(duì)從 scheduler 送來(lái)的 Request 對(duì)象在請(qǐng)求之前進(jìn)行預(yù)處理,可以實(shí)現(xiàn)添加 headers, user_agent,還有 cookie 等功能 。但也可以通過(guò)中間件直接返回 HtmlResponse 對(duì)象,略過(guò)請(qǐng)求的模塊,直接扔給 response 的回調(diào)函數(shù)處理。

class CustomMetaMiddleware(object):
  def process_request(self,request,spider):
    dcap = dict(DesiredCapabilities.PHANTOMJS)   
    dcap["phantomjs.page.settings.loadImages"] = False 
    dcap["phantomjs.page.settings.resourceTimeout"] = 10
    driver = webdriver.PhantomJS("D:xx\xx",desired_capabilities=dcap)
    driver.get(request.url)
    body = driver.page_source.encode('utf8')
    url = driver.current_url
    driver.quit()
    return HtmlResponse(request.url,body=body)

本文名稱(chēng):scrapy在python爬蟲(chóng)中使用時(shí)需要注意哪些問(wèn)題-創(chuàng)新互聯(lián)
當(dāng)前路徑:http://bm7419.com/article36/ddhopg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供外貿(mào)建站、服務(wù)器托管ChatGPT、移動(dòng)網(wǎng)站建設(shè)、網(wǎng)頁(yè)設(shè)計(jì)公司、響應(yīng)式網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶(hù)投稿、用戶(hù)轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

營(yíng)銷(xiāo)型網(wǎng)站建設(shè)