DIV CSS 佈局教程網

 DIV+CSS佈局教程網 >> 網頁SEO優化 >> SEO優化集錦 >> 搜索引擎為什麼只收錄網址沒有標題和描述?
搜索引擎為什麼只收錄網址沒有標題和描述?
編輯:SEO優化集錦     

前言:隨著互聯網迅速發展趨勢,如今已經越來越多新手站長,開始陸續的進入市場。前提是多數站長都不會制作網站技術,然而在建站過程中,網站經常出現只收錄網址,沒有標題和描述的問題。像類似問題,是因為站長還沒有掌握建站之前核心要素,首先要明白蜘蛛爬行是怎麼來的,怎麼才會來到網站上收錄。大家的回答應該是通過連接來的,這是事實。但是那為什麼搜索引擎還只收錄一個網址?有三大要素。

網站上線前後沒設置標簽

網站上線之前,最好在本地檢查標題、描述、關鍵字標簽是否正確,特別是使用開源程序的站長要注意。原後在本地都設置好再上傳到服務器。筆者就經常遇到驚喜,網站上傳好幾分鐘後,用site命令查詢已經被收錄,但是用站長工具查詢就查詢不到,原因是站長工具不是跟索引即時同步。

身邊的朋友和顧客之中,高達80%的站長,在網站上線之前沒有設置好,那麼很有可能在網站上傳的時候,蜘蛛就已經過來爬行。這時候已經在搜索引擎數據庫裡,只是沒顯示出來,我們再來寫標題描述,已經對網站有了一個小度影響。到下次蜘蛛再次過來,發現不一樣會停止收錄,好一點的會放出網址。此類情況不會長久顯示網址,但對新站收錄快慢有影響。

服務器或空間訪問速度慢

特別新手站長在剛開始建站,可能會帶有嘗試的心態,不會對網站下太大的功夫,那麼會花免費的空間,或許購買一些不太穩定的空間。有一次情況,在做客戶網站的時候,域名和空間都是客戶自己選購的。當時安裝的時候就感覺太慢,可是不太在意,三天左右來電話,問為什麼只收錄網址。

接到電話後馬上檢查網站所有程序是否出錯或者掛馬,沒發現任何一個地方有問題,打開網站日志來看,竟然沒有蜘蛛爬行記錄,這是為什麼?無奈之下把網站轉移到自己服務器,百度當天刪除網址,第四天收錄正常,谷歌第二天已經恢復正常。此類情況一天不換空間,就有可能一天不會解決,很少會遇見。

robots協議或後台禁止收錄

多數站長在建站時,會先把程序上傳到空間,用robots對其網址進行禁止協議,其實這是正確的做法,但有很多情況下,是無法禁止收錄的。其中原因是有外部鏈接指向網站,有任何一條鏈接指向到網站任何一個頁面都會收錄,這時禁止收錄的只是網站內容,會對網址一直收錄,而且百度快照會天天更新。robots協議在百度站長平台,官方已經表明,如果有外鏈的網站,或者文件不是放在根目錄不會禁止收錄,谷歌雖然沒有表明也會有類似的情況。

如果沒有外部鏈接,用robots禁止收錄,進行整站修改是件非常方便事情,是各大小站長常用的方法。但往往網站准備上線,要開放網站的時候,卻忘記修正協議,或者定義寫錯。如果文件寫著Disallow:/ 網站肯定不會正常。如果已經開始發外鏈,那只好收錄網址。認為定義都寫對了,那麼請檢查後台隱私部分,是否不允許蜘蛛訪問。

XML學習教程| jQuery入門知識| AJAX入門| Dreamweaver教程| Fireworks入門知識| SEO技巧| SEO優化集錦|
Copyright © DIV+CSS佈局教程網 All Rights Reserved