DIV CSS 佈局教程網

 DIV+CSS佈局教程網 >> 網頁SEO優化 >> SEO優化集錦 >> 網站優化中應減少重復內容讓蜘蛛愛不釋手
網站優化中應減少重復內容讓蜘蛛愛不釋手
編輯:SEO優化集錦     

重復內容通常是指域內或多個域之間存在的、與其他內容完全匹配或大致類似的內容。也就是說一個網站中可能存在許多重復的頁面,比如內容頁、產品的搜索列表頁、不同的url指向同一頁面等,這就都是屬於重復范圍。表面看起來沒什麼關系,對網站無害。但對蜘蛛而言就是滅頂之災。當然大多數情況下也不是故意的頁面重復.

能夠生成用於移動設備的常規和簡化網頁的論壇

通過多個不同網址顯示或鏈接的存儲項目

網頁的可打印版本

URL的重復

不同url指向同一頁面,這個也算重復頁面。蜘蛛爬行是按照鏈接來爬行的,在爬行之前蜘蛛並不知道這些不同的url指向同一個頁面。它會慢慢的去爬行,爬過之後才會知道竟然是重復的頁面,在進行相應的處理,表面上看起來也是沒有什麼問題。實際上蜘蛛已經花了相當大的力氣來解析這幾個重復的url,這就等於是寬帶的浪費一樣。

http://www.***.net/

***.net

http://www.***.net/index.html

訪問的都是首頁,何不如我們做做好事,用301重定向把他轉到指定的url。

筆者選擇http://www.***.net/這個地址,采用Apache服務器設置方法是,在.htaccess文件中加入以下代碼

RewriteEngine on

RewriteCond %{http_host} ^***.net[NC]

RewriteRule ^(.*)$ http://www.***.net/$1 [L,R=301]

RewriteEngine on

RewriteCond %{http_host} ^http://www.***.net/index.html [NC]

RewriteRule ^(.*)$ http://www.***.net/$1 [L,R=301]

詳細方法請查看百度百科裡的詳細介紹http://baike.baidu.com/view/2173220.htm

打印文本的重復

一般網站都會有一個可供浏覽的頁面,還有一個可以打印的文本。這個打印文本一般是看不出來的,只有需要打印才能看到文本,但內容都和頁面文本一樣,這就形成了和網頁文本的重復。對用戶無所謂,但對蜘蛛就不一樣了。我們應該避免這個情況出現,解決方法是用robots.txt來禁止蜘蛛抓取打印文本。

底部版權的重復

每個網站都有自己的版權說明,有的網站在底部些了很多關於版權方面的文字,非常的多。其實這個完全沒有必要。看看十九樓底部版權如何

非常的清晰明了,把一切關於版權,公司動態,法律聲明的東西都放到一個獨立頁面去,只用文本鏈接過去。這樣也大大降低了樣板文字的重復度。

404頁面的重復

一個大型網站無可厚非有很多404頁面。但這些404頁面也是一種資源上的重復。最好是用robots.txt來禁止抓取。

網站搜索的重復

現在的網站都有一個用戶喜歡的工具,那就是網站搜索條。對用戶而言能更快的找到自己想要的內容,但對蜘蛛不是這麼回事,也會增加重復度,所以也要屏蔽它。

一般可以在robots.txt文件裡加入Disallow: /search.php$(/search.php)文件要根據你網站系統來定,也就是你網站搜索采用哪個文件來執行搜索的)

Robots.txt文件的應用

我發現好多可以禁止重復頁面的方法都可以用robots.txt文件來解決,所以我們一定要掌握robots.txt使用的正確方法,發揮它強大的威力。

百度robots.txt說明 http://www.baidu.com/search/robots.html

不管是做seo還是做網站,每一個細節都是決定成敗的關鍵,你比別人多付出一點,你就可以穩操勝券。重復頁面對蜘蛛而言非常的耗時耗力,我們也該為蜘蛛減減壓了。

本文首發地址周振興的seo推廣博客:http://www.zzxing.net/seo-jishu/robots-seo/(轉載請保留)

感謝 zzxing 的投稿

XML學習教程| jQuery入門知識| AJAX入門| Dreamweaver教程| Fireworks入門知識| SEO技巧| SEO優化集錦|
Copyright © DIV+CSS佈局教程網 All Rights Reserved