DIV CSS 佈局教程網

 DIV+CSS佈局教程網 >> 網頁SEO優化 >> SEO優化集錦 >> 網站被K後如何進行分析、檢查、解決
網站被K後如何進行分析、檢查、解決
編輯:SEO優化集錦     

網站被搜索引擎K站,尤其是百度,這幾乎都快是站長們的家常便飯,無奈的很。昨天有兩個人不約而同來找我分析他們網站被K的原因,分析了不少,那麼在這裡總計下大致的通用對應思路。

1.首先,用過什麼黑帽手法嗎?

用過黑帽手法的就不要哭訴了,用黑帽手法不是說不可以,但是一定要事先就有著被懲罰的覺悟才行。所以我一直說,多數情況下,黑帽最好只用於灰色行業這類注重短期利益的行業。

昨天分析的一個網站,單頁的淘寶客,為了充實網頁上的文字內容(這個思路非常好),使用了隱藏文本,還是很長的一大段。然後一看css,隱藏的方式竟然是display:none,這種初級的作弊手法,被K也怨不得百度。別忘了,百度也是能夠抓取css並分析其內容的。

2.頁面上(一般主要是首頁),有什麼關鍵詞堆砌嗎?

這種問題大概是最常見的一種。我經常說,關鍵詞密度重要性不大,但是很多人聽不到我說的,於是還是執著於堆砌關鍵詞,也是無奈啊。

先看title,重復了多少次關鍵詞?一般重復三次或以下,過猶不及。然後,標題多少字了?不要超出60字符,超出部分本身就沒什麼權重,還會稀釋前面部分的關鍵詞效果,更可能成為懲罰與否的一個因素。

關鍵詞標簽,描述標簽在堆砌關鍵詞嗎?以前一篇文章裡面,已經詳細講過meta標簽對於排名沒用了。倒是不排除,可能會因為在上面堆砌關鍵詞,而受到懲罰的可能性。我的建議是,描述標簽多數情況下還是要寫的,而關鍵詞標簽,如果把握不好優化的度的話,那就最好不要寫。

3.蜘蛛是怎麼爬行你的網站的?

哪怕平常再偷懶,不看日志的話,當被K站的時候,一定要去琢磨下日志的情況。

第一種情況是,蜘蛛只爬robots.txt,那麼就看看robots是不是寫出問題了。

第二種情況是,只爬robots,首頁,還有少數的幾個頁面。這種情況目前我看到的,基本算是靈異情況吧,貌似沒有很好的解決方法。

第三種情況是,正常爬行,那就跳過這塊,蜘蛛爬行沒什麼大問題了。

第四種情況是,昨天見到的一種情況,蜘蛛爬行了大量的無意義頁面,但是文章什麼的很少爬。這個問題其實不少見,主要出現在濫用tag標簽上面。試想,一篇文章如果出現幾個tag標簽,而且一堆文章用的都是不同的各式tag,最後導致了收錄的tag頁面比文章頁面還多得多,不出點問題才怪。所以我一直認為,tag最好就別讓搜索引擎去收錄,除非對於tag的優化已經十分的得心應手了。SEM WATCH上面有著這樣一篇:如何在博客或網站上用好Tag?

不過在我看來,tag優化還要再考慮不少才行。由於太麻煩了,所以我就直接放棄了,反正SEO行業也沒這麼多詞要做。對於SEO行業,直接把“SEO”這個詞做上去來證明實力就可以了。

4.外鏈來源是什麼樣的?

外鏈的效果,主要看重質量和數量兩方面。數量上有一點可以引申出的是,假如數百條外鏈只是來自區區幾個網站的,那麼就顯得很不自然,有危險性。質量上,如果購買鏈接,一堆PR6的,反而沒有多少PR0的,豈不也是很可疑?

另外,諸如s服來的鏈接,本身肯定是不太好的。但如果鏈接裡面只有一小部分是此類網站來的,那自然沒事,不然陷害競爭對手太容易了。然而多數外鏈都是來自此類網站的呢?怎麼想怎麼有問題。

5.上述都沒問題,為什麼還是被懲罰了呢?

我講的是幾種比較常見的情況,應該另外還有很多因素。還有不要忘記的一點是,搜索引擎很少會用單單某一個因素來決定網站的生死,多數情況下,都是多種因素綜合導致的。

最後,實在看不出哪裡出問題的話(而且只有百度K你的網站的話),看下國平的文章就明白了。據我目前看到的例子而言,這種最讓人無語的情況,還是不鮮見的。

關於網站被K後,如何進行恢復及自查我就說這麼多,希望對大家有用,由筆式PH計www.kedida.com.cn原創,轉載請注明出處,謝謝!

感謝 筆式PH計 的投稿

XML學習教程| jQuery入門知識| AJAX入門| Dreamweaver教程| Fireworks入門知識| SEO技巧| SEO優化集錦|
Copyright © DIV+CSS佈局教程網 All Rights Reserved