DIV CSS 佈局教程網

 DIV+CSS佈局教程網 >> 網頁SEO優化 >> SEO基礎教程 >> 搜索引擎工作之爬行抓取原理
搜索引擎工作之爬行抓取原理
編輯:SEO基礎教程     

u=2748837620,2872349178&fm=21&gp=0_副本.png

搜索引擎工作的第一大特點就是爬行抓取,就是盡可能的把需要抓取的信息都抓取回來進行處理分析,因此爬行抓取的的工作方式也是搜索引擎正常高效工作方式的第一步,爬行抓取的成功也是所有網絡資源能夠有效正常展示給訪客的前提,所以這一步如果出現異常,那麼將導致搜索引擎後續的工作都無法進行展開。



大家可以回憶一下我們在想要搜索一個東西時,首先會在百度搜索框輸入我們要找的關鍵詞,而結果頁會出現眾多與關鍵詞有關信息,而在這個從搜索到展現的過程是以秒為單位來進行計算的。舉這個例子大家是否已經明白,搜索引擎能在1秒鐘之內把所查詢的與關鍵詞有關的信息從豐富的互聯網中逐一抓取一遍,能有如此高的工作效率,還還是歸結為搜索引擎在事先都已經處理好了這部分數據的原因。

    

再例如我們平時上網隨便打開一個網頁也是在1秒鐘之內打開,這雖然僅僅是打開一個網頁的時間,但是搜索引擎在以秒計算的情況並不可能把互聯網上的所有信息都查詢一遍,這不僅費時費力也費錢。 因此我們不難發現現在的搜索引擎都是事先已經處理好了所要抓取的網頁。而搜索引擎在搜集信息的工作中也都是按照一定的規律來進行的,簡單的我們可以總結以下兩種特點。


第一、批量收集:對互聯網上所有的存在鏈接的網頁信息都收集一遍,在這個收集的過程中可能會耗很長一段時間,同時也會增加不少額外的帶寬消耗,時效性也大大降低,但是這作為搜索引擎的重要的一步,還是一如既往的正常的去收集。


第二、增量收集:這可以簡單的理解是批量收集的一個高潔階段,最大可能的彌補了批量收集的短處和缺點。在批量搜集的基礎上搜集新增加的網頁內容信息,再變更上次收集之後產生過改變的頁面,刪除收集重復和不存在的網頁。

XML學習教程| jQuery入門知識| AJAX入門| Dreamweaver教程| Fireworks入門知識| SEO技巧| SEO優化集錦|
Copyright © DIV+CSS佈局教程網 All Rights Reserved