DIV CSS 佈局教程網

 DIV+CSS佈局教程網 >> 網頁SEO優化 >> SEO技巧 >> SEO優化利器:3分鐘精通robots寫法
SEO優化利器:3分鐘精通robots寫法
編輯:SEO技巧     

robots文件,對於很多新手SEO來說,是一個看不懂的神秘文件。不知道它到底有什麼用?我們該如何去寫?阿澤在要告訴大家的是,做好robots文件會讓你的網站更快收錄,從而更快排名。它是SEO優化的一大利器!

       robots文件,對於很多新手SEO來說,是一個看不懂的神秘文件。不知道它到底有什麼用?我們該如何去寫?阿澤在要告訴大家的是,做好robots文件會讓你的網站更快收錄,從而更快排名。它是SEO優化的一大利器! SEO優化利器:3分鐘精通robots寫法-阿澤 首先,我們應該清楚的了解,robots文件是用來做什麼的?        其實robots文件是一種協議,所有的搜索引擎蜘蛛在進入你的網站時,最先訪問的就是這個文件。它的作用就是“告訴蜘蛛,哪些路徑可以抓取,那些路徑不能抓取”。 其次,在明白了它的用途之後,我們應該了解,它的寫法,它的含義。Rotbots主要有以下幾方面組成:        Uer-agent: 定義搜索引擎的類型;        Disallow:  定義禁止搜索引擎收錄的地址;        Allow:    定義允許搜索引擎收錄的地址;        Crawl-delay: 定義抓取延遲; 在這裡我們要注意的這幾個必須牢記的注意事項:        1、每行規則的第一個英文字母必須大寫;        2、規則中的“:”只能使用英文狀態下的冒號;        3、“:”後必須且只能跟隨1個空格;        4、在書寫規則時必須注意大小寫;        5、路徑中只要包含該關鍵詞,該路徑就會被直接屏蔽;        比如:Disallow: /t就表示屏蔽網站中包含“/t”的所有路徑。        因此,我們必須牢記以上的寫法與規則,否則一個錯誤的robots文件輕則導致網站排名降低,重則直接K站。SEO之路且行且珍惜啊! 最後,阿澤要給大家分享的是robots文件為什麼對於我們網站的SEO優化會那麼重要呢?原因如下:        1、現在百度每天有成千上萬的信息在不斷更新發布,對於搜索引擎來說,網站的質量只能從內容來判斷。而很多人為了偷工減料,就使用編輯器自動生成文章,沒錯這樣效率提高了,分分鐘幾十篇文章,可有什麼用呢?蜘蛛抓取後與數據庫的文章一對比,內容相似度太高,頁面質量也不咋地,要你這頁面何用?已經收錄了的文章,為什麼還要再來收錄質量更差的頁面呢?因此我們必須用robots文件屏蔽掉這些沒用的、文字內容大量重復相似的頁面。        2、大家都知道,搜索引擎喜歡原創內容,特別是高質量的原創,更是青睐。而這裡的原創內容其實並不單單只是指網站文章原創度,也指網站模板的原創度。如果自己的網站是套用的模板文件,個人建議最好用robots文件將css目錄、模板目錄一起屏蔽。        3、除了以上所說的頁面外,其實我們的後台頁面,圖片目錄,數據庫等隱私目錄,建議最好一起屏蔽掉。一方面是這些內容搜索引擎抓取與否效用不大,另一方面是網站安全角度出發,最好將其路徑修改後屏蔽掉,減少被黑的可能。        4、對於搜索引擎來說,網站如果改版,或者有垃圾鏈接被刪除後,這些頁面我們一定要將其路徑屏蔽。因為只有這樣,搜索引擎才不會覺得我們網站有大量死鏈,只有屏蔽掉死鏈,並將死鏈提交給搜索引擎,讓它們知道。 比如我的robots文件因為之前改版有大量死鏈,就果斷將其屏蔽掉。示例:http://www.cdqinlan.com/robots.txt        5、還記得文章開篇講到的嗎,robots文件的作用是“告訴蜘蛛,哪些路徑可以抓取,那些路徑不能抓取”。通過這個文件我們能大大的增強蜘蛛爬取網站的效率,與我們的內鏈布局原理其實類似,都是蜘蛛理解哪些才是網站最重要的內容,不再浪費到其它的那些無用的頁面上。        好了,以上就是關於robots文件的所有介紹了,希望對大家有幫助。robots文件的設置雖然只是優化中的一個細節,可它設置的好壞卻能直接影響到網站優化效果。因此,讓我們做好每一個細節,讓搜索引擎給自己網站獲得好的排名一個必須的理由!
XML學習教程| jQuery入門知識| AJAX入門| Dreamweaver教程| Fireworks入門知識| SEO技巧| SEO優化集錦|
Copyright © DIV+CSS佈局教程網 All Rights Reserved