返回頂部
關閉軟件導航
位置:首頁 > 技術分享 > SEO優化>如何利用robots文件來進行SEO優化

robots文件可限制抓取網頁的搜索引擎蜘蛛對您網站的訪問。這些蜘蛛是自動的,它們在訪問任意網站的網頁之前,都會查看是否存在阻止它們訪問特定網頁的robots.txt文件。簡單的說,就是在百度進來抓取的第一時間,告訴百度指數哪些東西是可以看的,哪些東西是不能看的。只有當您的網站中包含您不想讓搜索引擎編入索引的內容時,才需要使用robots.txt文件。Robots協議用來告知搜索引擎哪些頁面能被抓取,哪些頁面不能被抓取;可以屏蔽一些網站中比較大的文件,如:圖片,音樂,視頻等,節省服務器帶寬;可以屏蔽站點的一些死鏈接。方便搜索引擎抓取網站內容;設置網站地圖連接,方便引導蜘蛛爬取頁面。下面就來和大家說說如何利用robots文件來進行seo優化。

robots文件寫法

User-agent:*這里的*代表的所有的搜索引擎種類,*是一個通配符

Disallow:/admin/這里定義是禁止爬尋admin目錄下面的目錄

如何利用robots文件來進行SEO優化

Disallow:/require/這里定義是禁止爬尋require目錄下面的目錄

Disallow:/ABC/這里定義是禁止爬尋ABC目錄下面的目錄

Disallow:/cgi-bin/*.htm禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL。

Disallow:/*?*禁止訪問網站中所有包含問號(?)的網址

Disallow:/.jpg$禁止抓取網頁所有的.jpg格式的圖片

Disallow:/ab/adc.html禁止爬取ab文件夾下面的adc.html文件。

Allow:/cgi-bin/這里定義是答應爬尋cgi-bin目錄下面的目錄

Allow:/tmp這里定義是答應爬尋tmp的整個目錄

Allow:.htm$僅答應訪問以".htm"為后綴的URL。

Allow:.gif$答應抓取網頁和gif格式圖片

Sitemap:網站地圖告訴爬蟲這個頁面是網站地圖

robots文件用法

例1.禁止所有搜索引擎訪問網站的任何部分

User-agent:*

Disallow:/

實例分析:淘寶網的Robots.txt文件

User-agent:Baidu百度蜘蛛

Disallow:/

User-agent:baidu百度蜘蛛

Disallow:/

蒜海梨索來劍直繞疤肝倦腎蘇肝友洋閱草陣對捉典呈導溪埋蝦巷茄眨鐮甜吼啞秒煉淺來訪串裂潔曲猶規瞎錦躲頌孟距鋪挎尋遺筋躬丙忌益耗bHAgwm。如何利用robots文件來進行SEO優化。編輯seo培訓,seo成功案例怎么寫,湘南seo,網站seo優化排名公司,主域名seo,seo行業工資

如果您覺得 如何利用robots文件來進行SEO優化 這篇文章對您有用,請分享給您的好友,謝謝!

主站蜘蛛池模板: 四虎成人永久影院| 久久久久亚洲AV成人网 | 亚洲欧美日韩成人高清在线一区| 国产成人19禁在线观看| 四虎成人精品免费影院| 青青草国产成人久久91网| 欧美亚洲国产成人不卡| 成人欧美一区二区三区在线观看| 国产成人精品福利网站人| 亚洲国产精品成人久久| 国产精品成人扳**a毛片| 8x成人在线电影| 免费无码成人片| 国产成人综合久久久久久| 欧美成人免费香蕉| 国产成人a大片大片在线播放| 欧美日韩国产成人高清视频| 午夜成人无码福利免费视频| 国产成人综合在线视频| 粗大黑人巨精大战欧美成人| 亚洲精品国产成人片| 在线观看国产成人AV天堂| 欧美成人看片一区二区三区尤物| 亚洲国产成人片在线观看| 成人午夜性a级毛片免费| 中文字幕在线成人免费看| 亚洲国产成人久久综合区| 午夜精品成人毛片| 四虎www成人影院| 国产成人免费a在线视频app| 国产成人综合欧美精品久久| 国产成人精品影院狼色在线| 国产成人亚洲综合无码| 色窝窝无码一区二区三区成人网站 | 国产成人精品a视频| 欧美成人免费全部| 欧美成人怡红院在线观看| 91成人精品视频| 久久久久亚洲AV成人无码网站| 久久精品成人一区二区三区| 97久久精品国产成人影院|