Python3爬蟲(chóng)利器中Scrapy-Redis的安裝方法是什么

這篇文章將為大家詳細(xì)講解有關(guān)Python3爬蟲(chóng)利器中Scrapy-redis的安裝方法是什么,小編覺(jué)得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。

創(chuàng)新互聯(lián)建站專注為客戶提供全方位的互聯(lián)網(wǎng)綜合服務(wù),包含不限于做網(wǎng)站、成都網(wǎng)站制作、田陽(yáng)網(wǎng)絡(luò)推廣、小程序設(shè)計(jì)、田陽(yáng)網(wǎng)絡(luò)營(yíng)銷、田陽(yáng)企業(yè)策劃、田陽(yáng)品牌公關(guān)、搜索引擎seo、人物專訪、企業(yè)宣傳片、企業(yè)代運(yùn)營(yíng)等,從售前售中售后,我們都將竭誠(chéng)為您服務(wù),您的肯定,是我們最大的嘉獎(jiǎng);創(chuàng)新互聯(lián)建站為所有大學(xué)生創(chuàng)業(yè)者提供田陽(yáng)建站搭建服務(wù),24小時(shí)服務(wù)熱線:028-86922220,官方網(wǎng)址:bm7419.com

Scrapy-Redis是Scrapy的分布式擴(kuò)展模塊,有了它,我們就可以方便地實(shí)現(xiàn)Scrapy分布式爬蟲(chóng)的搭建。本節(jié)中,我們將介紹Scrapy-Redis的安裝方式。

相關(guān)鏈接

GitHub:https://github.com/rmax/scrapy-redis

PyPI:https://pypi.python.org/pypi/scrapy-redis

官方文檔:http://scrapy-redis.readthedocs.io

pip安裝

這里推薦使用pip安裝,命令如下:

pip3 install scrapy-redis

wheel安裝

此外,也可以到PyPI下載wheel文件安裝(詳見(jiàn)https://pypi.python.org/pypi/scrapy-redis#downloads),如當(dāng)前的最新版本為0.6.8,則可以下載scrapy_redis-0.6.8-py2.py3-none-any.whl,然后通過(guò)pip安裝即可:

pip3 install scrapy_redis-0.6.8-py2.py3-none-any.whl

測(cè)試安裝

安裝完成之后,可以在Python命令行下測(cè)試:

$ python3
>>> import scrapy_redis

如果沒(méi)有錯(cuò)誤報(bào)出,則證明庫(kù)已經(jīng)安裝好了。

關(guān)于Python3爬蟲(chóng)利器中Scrapy-Redis的安裝方法是什么就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,可以學(xué)到更多知識(shí)。如果覺(jué)得文章不錯(cuò),可以把它分享出去讓更多的人看到。

文章題目:Python3爬蟲(chóng)利器中Scrapy-Redis的安裝方法是什么
文章源于:http://bm7419.com/article36/jjshsg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供企業(yè)網(wǎng)站制作、全網(wǎng)營(yíng)銷推廣、網(wǎng)站營(yíng)銷、建站公司、Google面包屑導(dǎo)航

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

網(wǎng)站托管運(yùn)營(yíng)