DIV CSS 佈局教程網

 DIV+CSS佈局教程網 >> 網頁SEO優化 >> SEO優化集錦 >> 搜索引擎抓取系統概述(二):spider抓取過程中的策略
搜索引擎抓取系統概述(二):spider抓取過程中的策略
編輯:SEO優化集錦     

之前與大家分享了關於搜索引擎抓取系統中有關抓取系統基本框架、抓取中涉及的網絡協議、抓取的基本過程的內容,今天將於大家分享搜索引擎抓取系統第二部分內容—spider抓取過程中的策略

spider在抓取過程中面對著復雜的網絡環境,為了使系統可以抓取到盡可能多的有價值資源並保持系統及實際環境中頁面的一致性同時不給網站體驗造成壓力,會設計多種復雜的抓取策略。以下簡單介紹一下抓取過程中涉及到的主要策略類型:

1、抓取友好性:抓取壓力調配降低對網站的訪問壓力

2、常用抓取返回碼示意

3、多種url重定向的識別

4、抓取優先級調配

5、重復url的過濾

6、暗網數據的獲取

7、抓取反作弊

8、提高抓取效率,高效利用帶寬

1、抓取友好性

互聯網資源龐大的數量級,這就要求抓取系統盡可能的高效利用帶寬,在有限的硬件和帶寬資源下盡可能多的抓取到有價值資源。這就造成了另一個問題,耗費被抓網站的帶寬造成訪問壓力,如果程度過大將直接影響被抓網站的正常用戶訪問行為。因此,在抓取過程中就要進行一定的抓取壓力控制,達到既不影響網站的正常用戶訪問又能盡量多的抓取到有價值資源的目的。

通常情況下,最基本的是基於ip的壓力控制。這是因為如果基於域名,可能存在一個域名對多個ip(很多大網站)或多個域名對應同一個ip(小網站共享ip)的問題。實際中,往往根據ip及域名的多種條件進行壓力調配控制。同時,站長平台也推出了壓力反饋工具,站長可以人工調配對自己網站的抓取壓力,這時百度spider將優先按照站長的要求進行抓取壓力控制。

對同一個站點的抓取速度控制一般分為兩類:其一,一段時間內的抓取頻率;其二,一段時間內的抓取流量。同一站點不同的時間抓取速度也會不同,例如夜深人靜月黑風高時候抓取的可能就會快一些,也視具體站點類型而定,主要思想是錯開正常用戶訪問高峰,不斷的調整。對於不同站點,也需要不同的抓取速度。

2、常用抓取返回碼示意

簡單介紹幾種百度支持的返回碼:

1)  最常見的404代表“NOT FOUND”,認為網頁已經失效,通常將在庫中刪除,同時短期內如果spider再次發現這條url也不會抓取;

2)  503代表“Service Unavailable”,認為網頁臨時不可訪問,通常網站臨時關閉,帶寬有限等會產生這種情況。對於網頁返回503狀態碼,百度spider不會把這條url直接刪除,同時短期內將會反復訪問幾次,如果網頁已恢復,則正常抓取;如果繼續返回503,那麼這條url仍會被認為是失效鏈接,從庫中刪除。

3)  403代表“Forbidden”,認為網頁目前禁止訪問。如果是新url,spider暫時不抓取,短期內同樣會反復訪問幾次;如果是已收錄url,不會直接刪除,短期內同樣反復訪問幾次。如果網頁正常訪問,則正常抓取;如果仍然禁止訪問,那麼這條url也會被認為是失效鏈接,從庫中刪除。

4)301  代表是“Moved Permanently”,認為網頁重定向至新url。當遇到站點遷移、域名更換、站點改版的情況時,我們推薦使用301返回碼,同時使用站長平台網站改版工具,以減少改版對網站流量造成的損失。

3、多種url重定向的識別

互聯網中一部分網頁因為各種各樣的原因存在url重定向狀態,為了對這部分資源正常抓取,就要求spider對url重定向進行識別判斷,同時防止作弊行為。重定向可分為三類:http 30x重定向、meta refresh重定向和js重定向。另外,百度也支持Canonical標簽,在效果上可以認為也是一種間接的重定向。

4、抓取優先級調配

由於互聯網資源規模的巨大以及迅速的變化,對於搜索引擎來說全部抓取到並合理的更新保持一致性幾乎是不可能的事情,因此這就要求抓取系統設計一套合理的抓取優先級調配策略。主要包括:深度優先遍歷策略、寬度優先遍歷策略、pr優先策略、反鏈策略、社會化分享指導策略等等。每個策略各有優劣,在實際情況中往往是多種策略結合使用以達到最優的抓取效果。

5、重復url的過濾

spider在抓取過程中需要判斷一個頁面是否已經抓取過了,如果還沒有抓取再進行抓取網頁的行為並放在已抓取網址集合中。判斷是否已經抓取其中涉及到最核心的是快速查找並對比,同時涉及到url歸一化識別,例如一個url中包含大量無效參數而實際是同一個頁面,這將視為同一個url來對待。

6、暗網數據的獲取

互聯網中存在著大量的搜索引擎暫時無法抓取到的數據,被稱為暗網數據。一方面,很多網站的大量數據是存在於網絡數據庫中,spider難以采用抓取網頁的方式獲得完整內容;另一方面,由於網絡環境、網站本身不符合規范、孤島等等問題,也會造成搜索引擎無法抓取。目前來說,對於暗網數據的獲取主要思路仍然是通過開放平台采用數據提交的方式來解決,例如“百度站長平台”“百度開放平台”等等。

7、抓取反作弊

spider在抓取過程中往往會遇到所謂抓取黑洞或者面臨大量低質量頁面的困擾,這就要求抓取系統中同樣需要設計一套完善的抓取反作弊系統。例如分析url特征、分析頁面大小及內容、分析站點規模對應抓取規模等等。

以上簡單介紹了抓取過程中涉及到的主要策略,每一個策略中都包含很多細節內容,可能對於一個網站的抓取都會產生影響。大家對哪部分有疑問可以直接提出來,我們一起來探討。

注:相關網站建設技巧閱讀請移步到建站教程頻道。

收藏本文

XML學習教程| jQuery入門知識| AJAX入門| Dreamweaver教程| Fireworks入門知識| SEO技巧| SEO優化集錦|
Copyright © DIV+CSS佈局教程網 All Rights Reserved