DIV CSS 佈局教程網

 DIV+CSS佈局教程網 >> 網頁SEO優化 >> SEO優化集錦 >> SEO總結:robots細節優化都包括哪些地方(一)
SEO總結:robots細節優化都包括哪些地方(一)
編輯:SEO優化集錦     

網站的優化是一個系統工程,有很多東西都必須實驗研究和總結。對於一些稍大規模的網站,一些簡單的SEO細節就能對整體產生影響,有時也會直接影響網站的收錄、轉化甚至盈利。所以對於上規模的網站而言,一些SEO細節是不得不提,不得不重視的。今天和大家總結關於robots的幾點知識,希望能讓大家受益。

robots文件的使用很多站長都熟悉,但在細節上未必在意,也未必精通。它包含的許多知識點搜索引擎並沒有給出詳盡的說明或者使用方法。在經過大量總結和參看資料的基礎上,本文和大家總結操作robots文件時應該注意的細節。

第一、user-agent的數量

一般網站的robots.txt文件中不要出現多個user-agent記錄,一般都是一個為宜,但是如果一個都不出現,也是被允許的。

第二、spider蜘蛛大小寫

搜索引擎蜘蛛在查看robots的時候會忽略大小寫,但是為了保險,也有網站分別寫了兩個不同的百度蜘蛛,比如淘寶。

第三、allow與disallow順序

順序的問題會導致抓取的錯誤,如果把allow放置後邊,有時候就會出現想要收錄的內容不被收錄,舉例說明:

想要搜索引擎唯一收錄a文件夾下的b.html,那麼則要這麼寫:

Allow:/a/b.html

Disallow:/a/

如果順序寫反,第一個匹配成功之後,b.html就不會被收錄。

第四、記得反斜槓

反斜槓代表的意思是根目錄,所以Disallow:/代筆的意思就是禁止收錄一切頁面和文件夾的內容。這個反斜槓很重要,少了反斜槓就代表允許搜索引擎收錄全部頁面。

第五、#表示注釋

在robots.txt中,#開頭均被視為注釋,這和unix中的慣例是一樣的。不要一不小心把通配符寫錯了。

第六、不要出現空格

有些robots文件中前邊會不注意加一個空格,這樣的問題應該盡量避免,否則一些機器人就不理解意思。

好了,篇幅有限,本文就先寫這六個方面吧,下文還有目錄大小寫、meta累加取值、采納限制性最強的參數等方面的介紹,都是十分有用處的細節,robots.txt雖然優化的主要方向,但是它確實必需重視的一個方向,如果寫的有問題,對整個網站的收錄都會造成影響。我們不應該隨波逐流,別人怎麼寫我們就怎麼寫。而是理解其中的含義,寫出符合自己網站的robots文件。

本文來自左旋360減肥咖啡(http://www.kfzxrj.com),轉載請保留鏈接,謝謝!

XML學習教程| jQuery入門知識| AJAX入門| Dreamweaver教程| Fireworks入門知識| SEO技巧| SEO優化集錦|
Copyright © DIV+CSS佈局教程網 All Rights Reserved