DIV CSS 佈局教程網

 DIV+CSS佈局教程網 >> 網頁SEO優化 >> SEO相關 >> SEO優化 >> 百度官方資料:網站誤封Robots該如何處理?
百度官方資料:網站誤封Robots該如何處理?
編輯:SEO優化     

robots文件是搜索生態中很重要的一個環節,同時也是一個很細節的環節。 那麼如果誤操作封禁了robots怎麼辦?

       robots文件是搜索生態中很重要的一個環節,同時也是一個很細節的環節。很多站長同學在網站運營過程中,很容易忽視robots文件的存在,進行錯誤覆蓋或者全部封禁robots,造成不必要損失!


       那麼如果誤操作封禁了robots怎麼辦?今天我們請到了廈門258網站運營負責人——鄭軍偉,為我們分享網站robots誤封禁後該如何操作?
【案例背景】
       網站開發2.0版本,技術選擇了在線開發,為了避免搜索引擎抓取開發版本,要求技術人員設置了Robots封禁處理。2.0版本開發周期1個月,1個月後網站版本迭代,直接覆蓋了1.0版本,包括Robots封禁文件,2天後發現流量大幅下降,檢查收錄發現800萬收錄降至0條,關鍵詞大量掉線。

百度官方資料:網站誤封Robots該如何處理?-阿澤

【處理方式】
       1、修改Robots封禁為允許,然後到百度站長後台檢測並更新Robots。
       2、在百度站長後台抓取檢測,此時顯示抓取失敗,沒關系,多點擊抓取幾次,觸發蜘蛛抓取站點。
       3、在百度站長後台抓取頻次,申請抓取頻次上調。
       4、百度反饋中心,反饋是因為誤操作導致了這種情況的發生。
       5、百度站長後台鏈接提交處,設置數據主動推送(實時)。
       6、更新sitemap網站地圖,重新提交百度,每天手工提交一次。
       以上處理完,接下來就是等待了,萬幸,2天的時間數據開始慢慢回升,到第3天基本回升到正常狀態!

 

【案例總結】
       本次事故絕對是運營生涯的一次敗筆,總結反思一下,希望大家避免類似問題。
       1、產品開發一定要避免在線開發,不能為了省事不搭建開發環境。
       2、產品迭代要有流程記錄,開發時做了那些設置處理,那些是不需要放出來的,那些是必須放出來的,要非常清楚。
       3、要經常關注百度站長後台,關注相關數據變化,從數據變化中及時發現問題
       文章來自:百度站長平台

XML學習教程| jQuery入門知識| AJAX入門| Dreamweaver教程| Fireworks入門知識| SEO技巧| SEO優化集錦|
Copyright © DIV+CSS佈局教程網 All Rights Reserved