robots文文件,簡單來說,是一個網站和一個搜索引擎之間的協議。許多企業網站上的機器人文件要么是空白的,要么是令人困惑的。這對網站優化非常不利,也不利于保護需要保護的數據。這將嚴重影響網站內容包含的效果。下面詳細分析了robots文件在SEO優化中的應用及存在的誤區。
1、如何檢查
txt文件放在網站的根目錄下。只要我們在域名后輸入robots.txt,然后按下確認按鈕,robots文件的內容就會彈出。將顯示robots.txt文件
2、誤用robots.txt文件
1.網站上的所有文件都可以抓取,無需設置robots.txt文件,搜索引擎默認抓取整個網站文件,不利于網站優化。事實并非如此。每當robots.txt文件出現在網站上時,就會被爬行器抓取。如果文件不存在,爬行器會認為它是一個死鏈接,并將其記錄為網站日志中的死鏈接,這會嚴重影響爬行器的友好性。
2.將robots.txt文件中的所有文件設置為允許搜索引擎爬行,以便搜索引擎可以包含更多的頁面。事實上,搜索引擎蜘蛛是很難被包括在網站程序腳本,css樣式,js文件等搜索引擎。即使包含它,也只會浪費服務器資源。這種對網站的保護很差,對蜘蛛的體驗也不友好。
3.在robots.txt文件中,設置不抓取整個網站的內容,并且不允許抓取意味著整個網站將不會被搜索引擎收錄。如果不包含,網站優化關鍵詞將很難獲得排名。在好的營銷內容上,也很難被用戶看到。
3、建議使用
我們的網站是由很多文件組成的,比如我們常用的后臺管理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片、背景圖片等。一些文件不需要搜索,以確保引擎不留下空白的網站。
1、如何檢查
txt文件放在網站的根目錄下。只要我們在域名后輸入robots.txt,然后按下確認按鈕,robots文件的內容就會彈出。將顯示robots.txt文件
2、誤用robots.txt文件
1.網站上的所有文件都可以抓取,無需設置robots.txt文件,搜索引擎默認抓取整個網站文件,不利于網站優化。事實并非如此。每當robots.txt文件出現在網站上時,就會被爬行器抓取。如果文件不存在,爬行器會認為它是一個死鏈接,并將其記錄為網站日志中的死鏈接,這會嚴重影響爬行器的友好性。
2.將robots.txt文件中的所有文件設置為允許搜索引擎爬行,以便搜索引擎可以包含更多的頁面。事實上,搜索引擎蜘蛛是很難被包括在網站程序腳本,css樣式,js文件等搜索引擎。即使包含它,也只會浪費服務器資源。這種對網站的保護很差,對蜘蛛的體驗也不友好。
3.在robots.txt文件中,設置不抓取整個網站的內容,并且不允許抓取意味著整個網站將不會被搜索引擎收錄。如果不包含,網站優化關鍵詞將很難獲得排名。在好的營銷內容上,也很難被用戶看到。
3、建議使用
我們的網站是由很多文件組成的,比如我們常用的后臺管理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片、背景圖片等。一些文件不需要搜索,以確保引擎不留下空白的網站。