詳細(xì)的robots.txt學(xué)習(xí)方法,新手學(xué)完分分鐘成大牛

2022-06-06    分類(lèi): 網(wǎng)站建設(shè)

關(guān)于這個(gè)robots.txt正確的寫(xiě)法,創(chuàng)新互聯(lián)參考了很多的資料,發(fā)現(xiàn)有的作者解釋或者寫(xiě)法太過(guò)簡(jiǎn)單,造成新手不易理解,下面就和創(chuàng)新互聯(lián)一起去了解詳細(xì)的robots.txt學(xué)習(xí)方法吧。

robots.txt是以什么形式存在?robots.txt就是一份網(wǎng)站和搜索引擎雙方簽訂的規(guī)則協(xié)議書(shū)。每一個(gè)搜索引擎的蜘蛛訪問(wèn)一個(gè)站點(diǎn)時(shí),它首先爬行來(lái)檢查該站點(diǎn)根目錄下是否存在robots.txt。如果存在,蜘蛛就會(huì)按照該協(xié)議書(shū)上的規(guī)則來(lái)確定自己的訪問(wèn)范圍;如果沒(méi)有robots.txt,那么蜘蛛就會(huì)沿著鏈接抓取。

請(qǐng)牢牢記住:robots.txt必須放置在站點(diǎn)的根目錄下,而且文件名必須全部小寫(xiě)。Disallow后面的冒號(hào)必須為英文狀態(tài)的。

我們先來(lái)理解User-agent和Disallow的定義。

● User-agent:該項(xiàng)用于描述搜索引擎蜘蛛的名字。(1)規(guī)定所有蜘蛛:User-agent:*;(2)規(guī)定某一個(gè)蜘蛛:User-agent:BaiduSpider。

● Disallow:該項(xiàng)用于描述不希望被抓取和索引的一個(gè)URL,這個(gè)URL可以是一條完整的路徑。這有幾種不同定義和寫(xiě)法:(1)Disallow:/AAA.net,任何以域名+Disallow描述的內(nèi)容開(kāi)頭的URL均不會(huì)被蜘蛛訪問(wèn),也就是說(shuō)以AAA.net目錄內(nèi)的文件均不會(huì)被蜘蛛訪問(wèn);(2)Disallow:/AAA.net/則允許robots抓取和索引AAA.net/index.html,而不能抓取和索引AAA.net/admin.html;(3)如果Disallow記錄為空,說(shuō)明該網(wǎng)站的所有部分都允許被訪問(wèn)。在robots.txt文件中,至少應(yīng)有Disallow記錄,如果robots.txt為空文件,則對(duì)所有的搜索引擎robot來(lái)說(shuō),該網(wǎng)站都是開(kāi)放的。

1、國(guó)內(nèi)建站需要用到的常見(jiàn)搜索引擎robot的名稱(chēng)。

有時(shí)候我們覺(jué)得網(wǎng)站訪問(wèn)量(IP)不多,但是網(wǎng)站流量為什么耗的快?有很多的原因是垃圾(沒(méi)有)蜘蛛爬行和抓取消耗的。而網(wǎng)站要屏蔽哪個(gè)搜索引擎或只讓哪個(gè)搜索引擎收錄的話,首先要知道每個(gè)搜索引擎robot的名稱(chēng)。

2、robots.txt文件基本常用寫(xiě)法:

首先,你先建一個(gè)空白文本文檔(記事本),然后命名為:robots.txt。

(1)禁止所有搜索引擎訪問(wèn)網(wǎng)站的任何部分。

User-agent: *

Disallow: /

(2)允許所有的robots訪問(wèn),無(wú)任何限制。

User-agent: *

Disallow:

或者

User-agent: *

Allow: /

還可以建立一個(gè)空文件robots.txt或者不建立robots.txt。

(3)僅禁止某個(gè)搜索引擎的訪問(wèn)(例如:百度baiduspider)

User-agent: BaiduSpider

Disallow:/

(4)允許某個(gè)搜索引擎的訪問(wèn)(還是百度)

User-agent: BaiduSpider

Disallow:

User-agent: *

Disallow: /

這里需要注意,如果你還需要允許谷歌bot,那么也是在“User-agent: *”前面加上,而不是在“User-agent: *”后面。

(5)禁止Spider訪問(wèn)特定目錄和特定文件(圖片、壓縮文件)。

User-agent: *

Disallow: /AAA.net/

Disallow: /admin/

Disallow: .jpg$

Disallow: .rar$

這樣寫(xiě)之后,所有搜索引擎都不會(huì)訪問(wèn)這2個(gè)目錄。需要注意的是對(duì)每一個(gè)目錄必須分開(kāi)說(shuō)明,而不要寫(xiě)出“Disallow:/AAA.net/ /admin/”。

3、robot特殊參數(shù)(這一部分不熟者不要輕易使用)

(1)Allow

Allow與Disallow是正好相反的功能,Allow行的作用原理完全與Disallow行一樣,所以寫(xiě)法是一樣的,只需要列出你要允許的目錄或頁(yè)面即可。

Disallow和Allow可以同時(shí)使用,例如,需要攔截子目錄中的某一個(gè)頁(yè)面之外的其他所有頁(yè)面,可以這么寫(xiě):

User-agent: *

Disallow: /AAA.net/

Allow: /AAA.net/index.html

這樣說(shuō)明了所有蜘蛛只可以抓取/AAA.net/index.html的頁(yè)面,而/AAA.net/文件夾的其他頁(yè)面則不能抓取,還需要注意以下錯(cuò)誤的寫(xiě)法:

User-agent: *

Disallow: /AAA.net

Allow: /AAA.net/index.html

原因請(qǐng)看上面Disallow值的定義說(shuō)明。

(2)使用“*”號(hào)匹配字符序列。

例1.攔截搜索引擎對(duì)所有以admin開(kāi)頭的子目錄的訪問(wèn),寫(xiě)法:

User-agent: *

Disallow: /admin*/

例2.要攔截對(duì)所有包含“?”號(hào)的網(wǎng)址的訪問(wèn),寫(xiě)法:

User-agent: *

Disallow: /*?*

(3)使用“$”匹配網(wǎng)址的結(jié)束字符

例1.要攔截以.asp結(jié)尾的網(wǎng)址,寫(xiě)法:

User-agent: *

Disallow:/*.asp$

例2.如果“:”表示一個(gè)會(huì)話ID,可排除所包含該ID的網(wǎng)址,確保蜘蛛不會(huì)抓取重復(fù)的網(wǎng)頁(yè)。但是,以“?”結(jié)尾的網(wǎng)址可能是你要包含的網(wǎng)頁(yè)版本,寫(xiě)法:

User-agent: *

Allow: /*?$

Disallow: /*?

也就是只抓取.asp?的頁(yè)面,而.asp?=1,.asp?=2等等都不抓取。

4、網(wǎng)站地圖(sitemap)

對(duì)于提交網(wǎng)站地圖,我們可以到谷歌站長(zhǎng)工具提交,也可以用robots.txt文件中提示蜘蛛抓取:

sitemap:AAA.net/sitemaps.xml

5、robots.txt的好處與壞處(解決方法)。

好處:

(1)有了robots.txt,spider抓取URL頁(yè)面發(fā)生錯(cuò)誤時(shí)則不會(huì)被重定向至404處錯(cuò)誤頁(yè)面,同時(shí)有利于搜索引擎對(duì)網(wǎng)站頁(yè)面的收錄。

(2)robots.txt可以制止我們不需要的搜索引擎占用服務(wù)器的寶貴寬帶。

(3)robots.txt可以制止搜索引擎對(duì)非公開(kāi)的爬行與索引,如網(wǎng)站的后臺(tái)程序、管理程序,還可以制止蜘蛛對(duì)一些臨時(shí)產(chǎn)生的網(wǎng)站頁(yè)面的爬行和索引。

(4)如果網(wǎng)站內(nèi)容由動(dòng)態(tài)轉(zhuǎn)換靜態(tài),而原有某些動(dòng)態(tài)參數(shù)仍可以訪問(wèn),可以用robots中的特殊參數(shù)的寫(xiě)法限制,可以避免搜索引擎對(duì)重復(fù)的內(nèi)容懲罰,保證網(wǎng)站排名不受影響。

壞處:

(1)robots.txt輕松給黑客指明了后臺(tái)的路徑。

解決方法:給后臺(tái)文件夾的內(nèi)容加密,對(duì)默認(rèn)的目錄主文件inde.html改名為其他。

(2)如果robots.txt設(shè)置不對(duì),將導(dǎo)致搜索引擎不抓取網(wǎng)站內(nèi)容或者將數(shù)據(jù)庫(kù)中索引的數(shù)據(jù)全部刪除。

User-agent: *

Disallow: /

這一條就是將禁止所有的搜索引擎索引數(shù)據(jù)。

創(chuàng)新互聯(lián)友情提醒,在你不能保證robots.txt正確寫(xiě)法,那么就應(yīng)該保證robots.txt出廠狀態(tài),不要輕易的去動(dòng)它,避免造成不必要的損失!

分享文章:詳細(xì)的robots.txt學(xué)習(xí)方法,新手學(xué)完分分鐘成大牛
當(dāng)前地址:http://www.bm7419.com/news17/163667.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供域名注冊(cè)、云服務(wù)器、服務(wù)器托管關(guān)鍵詞優(yōu)化、網(wǎng)站排名、響應(yīng)式網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶(hù)投稿、用戶(hù)轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

成都app開(kāi)發(fā)公司