
HTTP 404或Not Found錯誤信息是HTTP的其中一種“標準回應信息”(HTTP狀態碼),此信息代表客戶端在瀏覽網頁時,服務器無法正常提供信息,或是服務器無法回應且不知原因。
大量死鏈對搜索引擎來講,有什么影響?
編輯失誤或者程序員大意讓頁面產生了不存在的頁面。
3、外部鏈接錯誤
用戶或者站長在站外發布了錯誤URL,蜘蛛爬取后產生錯誤頁面;別的網站復制或采集了你們含有錯誤鏈接的頁面;有些垃圾網站自動生成的靜態搜索結果頁,如 www。8875。org/desc/3715714444.html 這個頁面中出現的很多鏈接在html前面有“...”。
4、爬蟲提取了不完整的URL
個別爬蟲在提取頁面URL的時候,只提取部分URL或者把正常的URL后面的文字或字符也提取進去了。
5、網站改版
網站改版過程中老頁面直接刪除并沒有301跳轉到對應頁面,或者實行301跳轉后依然部分老頁面無法訪問。
6、管理員刪除頁面
網站管理員刪除被黑、廣告、過時、被灌水頁面導致很多死鏈接。
7、過時或交易完畢頁面
下架商品、過期信息
出現了了上述情況,我們該如何去解決
1、修復錯誤頁面
抓取異常中的很多錯誤頁面是因為程序員大意或者我們程序問題導致的,本應該是正常頁面,因為失誤導致無法訪問,對于此類頁面,時間進行修復。
2、提交死鏈接
但必定很多錯誤頁面是本不應該存在的,那么我們要想辦法獲取此類頁面URL,獲取方式主要有三種:
3、在robots中屏蔽抓取
若大量的錯誤URL存在一定的規律,可以在robots文件中寫一個規則禁止蜘蛛抓取此類鏈接,但前提一定要照顧好正常頁面,避免屏蔽規則誤傷正常頁面,比如你的網站全部是靜態URL,那么如果錯誤鏈接中含有?的話,規則寫成Disallow:/*?*,如果錯誤鏈接中有/id...html 的話,規則寫成Disallow:/*...* 。1、在百度站長工具中提交死鏈前,一定要確保提交的死鏈數據不存在活鏈接。一旦存在活鏈,會顯示提交失敗導致無法刪除。
2、由于很多網站程序問題,很多打不開的頁面返回碼并非404,這是一個大問題,比如明明是打不開的頁面返回碼是301、200、500,如果是200的話,會導致網站中出現不同URL獲取相同內容。
3、把所有的錯誤頁面找到后,一定要尋找此類頁面URL相同特征,并且和正常頁面的特征有區分,寫對應規則到robots文件中,禁止蜘蛛抓取,就算你已經在站長工具中提交了死鏈,也建議robots封禁抓取。
【版權聲明】:本站內容來自于與互聯網(注明原創稿件除外),供訪客免費學習需要。如文章或圖像侵犯到您的權益,請及時告知,我們第一時間刪除處理!謝謝!