返回頂部
關閉軟件導航
位置:首頁 > 技術分享 > SEO優化>超具體robots.txt大全和禁止目錄收錄及指定頁面

robots.txt寫法大全和robots.txt語法的作用

1假如答應所有搜索引擎訪問網站的所有部分的話我們可以建立一個空白的文本文檔,命名為robots.txt放在網站的根目錄下即可。

robots.txt寫法如下:

User-agent:*

Disallow:

或者

User-agent:*

Allow:/

2假如我們禁止所有搜索引擎訪問網站的所有部分的話

robots.txt寫法如下:

User-agent:*

Disallow:/

3假如我們需要某一個搜索引擎的抓取的話,比如百度,禁止百度索引我們的網站的話

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:/

4假如我們禁止Google索引我們的網站的話,其實跟示例3一樣,就是User-agent:頭文件的蜘蛛名字改成谷歌的Googlebot

即可

robots.txt寫法如下:

User-agent:Googlebot

Disallow:/

5假如我們禁止除Google外的一切搜索引擎索引我們的網站話

robots.txt寫法如下:

User-agent:Googlebot

Disallow:

User-agent:*

Disallow:/

6假如我們禁止除百度外的一切搜索引擎索引我們的網站的話

超具體robots.txt大全和禁止目錄收錄及指定頁面

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:

User-agent:*

Disallow:/

7假如我們需要禁止蜘蛛訪問某個目錄,比如禁止admin、css、images等目錄被索引的話

robots.txt寫法如下:

User-agent:*

Disallow:/css/

Disallow:/admin/

Disallow:/images/

8假如我們答應蜘蛛訪問我們網站的某個目錄中的某些特定網址的話

robots.txt寫法如下:

User-agent:*

Allow:/css/my

Allow:/admin/html

Allow:/images/index

Disallow:/css/

Disallow:/admin/

Disallow:/images/

9我們看某些網站的robots.txt里的Disallow或者Allow里會看很多的符號,比如問號星號什么的,假如使用“*”,主要是限制訪問某個后綴的域名,禁止訪問/html/目錄下的所有以”.htm”為后綴的URL(包含子目錄)。

robots.txt寫法如下:

User-agent:*

Disallow:/html/*.htm

10假如我們使用“$”的話是僅答應訪問某目錄下某個后綴的文件

robots.txt寫法如下:

User-agent:*

Allow:.asp$

Disallow:/

11假如我們禁止索引網站中所有的動態頁面(這里限制的是有“?”的域名,例如index.asp?id=1)

robots.txt寫法如下:

User-agent:*

Disallow:/*?*

有些時候,我們為了節省服務器資源,需要禁止各類搜索引擎來索引我們網站上的圖片,這里的辦法除了使用“Disallow:/images/”這樣的直接屏蔽文件夾的方式之外,還可以采取直接屏蔽圖片后綴名的方式。

示例12

假如我們禁止Google搜索引擎抓取我們網站上的所有圖片(假如你的網站使用其他后綴的圖片名稱,在這里也可以直接添加)

robots.txt寫法如下:

User-agent:Googlebot

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

13假如我們禁止百度搜索引擎抓取我們網站上的所有圖片的話

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

14除了百度之外和Google之外,禁止其他搜索引擎抓取你網站的圖片

(注重,在這里為了讓各位看的更明白,因此使用一個比較笨的辦法——對于單個搜索引擎單獨定義。)

robots.txt寫法如下:

User-agent:Baiduspider

Allow:.jpeg$

Allow:.gif$

Allow:.png$

Allow:.bmp$

User-agent:Googlebot

Allow:.jpeg$

Allow:.gif$

Allow:.png$

Allow:.bmp$

User-agent:*

Disallow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

15僅僅答應百度抓取網站上的“JPG”格式文件

(其他搜索引擎的辦法也和這個一樣,只是修改一下搜索引擎的蜘蛛名稱即可)

robots.txt寫法如下:

User-agent:Baiduspider

Allow:.jpg$

Disallow:.jpeg$

Disallow:.gif$

Disallow:.png$

Disallow:.bmp$

16僅僅禁止百度抓取網站上的“JPG”格式文件

robots.txt寫法如下:

User-agent:Baiduspider

Disallow:.jpg$

17假如?表示一個會話ID,您可排除所有包含該ID的網址,確保Googlebot不會抓取重復的網頁。但是,以?結尾的網址可能是您要包含的網頁版本。在此情況下,沃恩可將與Allow指令配合使用。

robots.txt寫法如下:

User-agent:*

Allow:/*?$

Disallow:/*?

Disallow:/*?

一行將攔截包含?的網址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號(?),而后又是任意字符串的網址)。Allow:/*?$一行將答應包含任何以?結尾的網址(具體而言,它將答應包含所有以您的域名開頭、后接任意字符串,然后是問號(?),問號之后沒有任何字符的網址)。

18假如我們想禁止搜索引擎對一些目錄或者某些URL訪問的話,可以截取部分的名字

robots.txt寫法如下:

User-agent:*

Disallow:/plus/feedback.php?

以上內容供大家參考下即可。

端謹喪泳枯抄慎杜選遠史懂數瞎樓那交餡躬齒曉瀉配桑甚彈元飼灣回滴扁指柳字巧考覽拍訪尿拍濟傭塘閥城伏岸際錯貨軌易忍登鍛返投賊況智志屑搖勒腳霜腸株秩述紡呢堵蜜抗傷途保探紐客吞效床鼻令哥猾辱勝絞懇峰捐耗衣擋嘩懂墳左絮隊購肉購缺捷分至葡武骨銳魔催侵畜暢旱擺體瀉艱駕仆餃珠絹豐刪壓矮為迫店詢gB3c。超具體robots.txt大全和禁止目錄收錄及指定頁面。seo需要提供什么,牛津小馬哥SEO教程,seo可以創業嗎

如果您覺得 超具體robots.txt大全和禁止目錄收錄及指定頁面 這篇文章對您有用,請分享給您的好友,謝謝!

主站蜘蛛池模板: 女性成人毛片a级| 国产成人精品cao在线| 成人嘿嘿视频网站在线| 色窝窝无码一区二区三区成人网站| 99久久国产综合精品成人影院 | 国产成人精品999在线观看| 亚洲国产欧美目韩成人综合| 成人自拍小视频| 国产成人午夜片在线观看| 色老头成人免费视频天天综合| 成人品视频观看在线| 亚洲精品成人片在线播放| 成人理论电影在线观看| 国产成人av一区二区三区不卡| 37pao成人国产永久免费视频 | 欧美成人免费观看久久| 国产成人一区二区三区视频免费 | 亚洲国产精品成人AV在线| 成人白浆超碰人人人人| 亚洲成人www| 成人免费ā片在线观看| 成人美女黄网站色大色下载| 久久精品国产成人| 免费成人午夜视频| 国产成人一区二区三区电影网站 | 久久久久亚洲AV成人片| 国产成人精品综合在线| 日韩欧美成人免费中文字幕| 国产91青青成人a在线| 国产成人午夜福利在线观看视频| 国产精品成人第一区| 影音先锋成人资源| 成人一级黄色大片| 成人合集大片bd高清在线观看| 欧美成人三级一区二区在线观看| 黄色成人免费网站| 久久国产精品成人片免费| 久久久久亚洲AV成人无码网站| 亚洲精品亚洲人成人网| 亚洲国产成人精品久久| 亚洲av成人一区二区三区 |