DIV CSS 佈局教程網

 DIV+CSS佈局教程網 >> 網頁SEO優化 >> SEO優化集錦 >> 搜索引擎網頁收錄算法之收錄高質量網頁
搜索引擎網頁收錄算法之收錄高質量網頁
編輯:SEO優化集錦     

第一階段:大小通吃

搜索引擎的網頁抓取都是采取「大小通吃」的策略,也就是把網頁中能發現的鏈接逐一加入到待抓取URL中,機械性的將新抓取的網頁中的URL提取出來,這種方式雖然比較古老,但效果很好,這就是為什麼很多站長反應蜘蛛來訪問了,但沒有收錄的原因,這僅僅是第一階段。

第二階段:網頁評級

而第二階段則是對網頁的重要性進行評級,PageRank是一種著名的鏈接分析算法,可以用來衡量網頁的重要性,很自然的,站長可以用PageRank的思路來對URL進行排序,這就是各位熱衷的「發外鏈」,據一位朋友了解,在中國「發外鏈」這個市場每年有上億元的規模。    

爬蟲的目的就是去下載網頁,但PageRank是個全局性算法,也就是當所有網頁有下載完成後,其計算結果才是可靠的。對於中小網站來講,服務器如果質量不好,如果在抓取過程中,只看到部分內容,在抓取階段是無法獲得可靠的PageRank得分。

第三階段:OCIP策略

OCIP策略更像是PageRank算法的改進。在算法開始之前,每個網頁都給予相同的「現金」,每當下載某個頁面A後,A將自己的「現金」平均分給頁面中包含的鏈接頁面,把自己的「現金」清空。這就是為什麼導出的鏈接越少,權重會越高的原因之一。

而對於待抓取的網頁,會根據手頭擁有的現金多少排序,優先下載現金最充裕的網頁,OCIP大致與PageRank思路一致,區別在於:PageRank每次要迭代計算,而OCIP則不需要,所以計算速度遠遠快於PageRank,適合實時計算使用。這可能就是為什麼很多網頁會出現「秒收」的情況了。

第四階段:大站優先策略。

大站優先的思路很直接,以網站為單位來衡量網頁的重要性,對於待抓取的URL隊列中的網頁,根據所述網站歸類,如果哪個網站等待下載的頁面最多,則優先下載這些鏈接。其本質思想是「傾向於優先下載大型網站URL」。因為大型網站往往包含更多的頁面。鑒於大型網站往往是名站,其網頁質量一般較高,所以這個思路雖然簡單,但有一定依據。

實驗表明這個算法雖然簡單粗暴,但卻能收錄高質量網頁,很有效果。這也是為什麼許多網站的內容被轉載後,大站卻能排到你前面的最重要原因之一。

許余波博客:http://xuyubo.cn,轉載請注明!

注:相關網站建設技巧閱讀請移步到建站教程頻道。

收藏本文

XML學習教程| jQuery入門知識| AJAX入門| Dreamweaver教程| Fireworks入門知識| SEO技巧| SEO優化集錦|
Copyright © DIV+CSS佈局教程網 All Rights Reserved