您现在的位置是:流星SEO博客 > SEO技巧 > SEO入门技术 >

深度解析搜索引擎抓取收录的基本原理

流星等夜2018-04-13 20:05:45人围观来源:流星SEO研究院
简介对于我们这些做SEO优化的来说,如果不懂搜索引擎的原理就来做SEOer,也就相当于说是盲人登山的感觉。只有了解了搜索引擎工作的基础流程与原理,我们才能更好的去针对搜索引擎做出相关优化工作。作为一个合格的SEOer或个人站长,不了解搜索引擎蜘蛛抓取收录显然out了。今天,流星等夜就和大家一起来探讨搜索引擎蜘蛛抓取收录的基本原理。 什么是搜索引擎蜘蛛? 搜索引擎

对于我们这些做SEO优化的来说,如果不懂搜索引擎的原理就来做SEOer,也就相当于说是盲人登山的感觉。只有了解了搜索引擎工作的基础流程与原理,我们才能更好的去针对搜索引擎做出相关优化工作。作为一个合格的SEOer或个人站长,不了解搜索引擎蜘蛛抓取收录显然out了。今天,流星等夜就和大家一起来探讨—搜索引擎蜘蛛抓取收录的基本原理。

什么是搜索引擎蜘蛛?


搜索引擎蜘蛛

搜索引擎蜘蛛,是一种按照一定的规则,自动地抓取互联网信息的程序或者脚本。由于互联网具有四通八达的“拓补结构”十分类似蜘蛛网,再加上搜索引擎爬虫无休止的在互联网上“爬行”,因此人家形象的将搜索引擎爬虫称之为蜘蛛。

搜索引擎蜘蛛抓取收录的基本原理

互联网储备了丰富的资源和数据,那么这些资源数据是怎么来的呢?众所周知,搜索引擎不会自己产生内容,借助蜘蛛不间断的从千千万万的网站上面“搜集”网页数据来“填充”自有的页面数据库。这也就是为什么我们使用搜索引擎检索数据时,能够获得大量的匹配资源。

说了这么多,不如贴一张图来的实在。下图是搜索引擎抓取收录的基本原理图:

搜索引擎抓取收录的基本原理图

搜索引擎抓取收录基本原理图

大体工作流程如下:

①搜索引擎安排蜘蛛到互联网上的网站去抓取网页数据,然后将抓取的数据带回搜索引擎的原始页面数据库中。蜘蛛抓取页面数据的过程是无限循环的,只有这样我们搜索出来的结果才是不断更新的。

 

②原始页面数据库中的数据并不是最终的结果,只是相当于过了面试的“初试”,搜索引擎会将这些数据进行“二次处理”,这个过程中会有两个处理结果:

(1)对那些抄袭、采集或者复制的重复内容,不符合搜索引擎规则及不满足用户体验的垃圾页面从原始页面数据库中清除。

(2)将符合搜索引擎规则的高质量页面添加到索引数据库中,等待进一步的分类、整理等工作。

③搜索引擎对索引数据库中的数据进行分类、整理、计算链接关系、特殊文件处理等过程,将符合规则的网页展示在搜索引擎显示区,以供用户使用和查看。

打赏本站,你说多少就多少

    说明:

    转载请注明:深度解析搜索引擎抓取收录的基本原理

    本文地址:https://www.liuxingseo.com/seo/rumen/100.html

    本文由流星等夜发表在SEO入门技术分类下

    最后更新时间:2018-04-13 20:05:45

    声明:本文由流星等夜整理分享,希望可以帮到您,不足之处,还望多多指教!

文章评论

流星SEO熊掌号

点击排行

站长推荐

微信关注