收录的第一个环节就是抓取,即搜索引擎的蜘蛛(Spider)到互联网去抓取网页的过程,抓取网页是收录工作的上游,通过搜索引擎蜘蛛的抓取、保存和持续的更新,实现对互联网网页的动态更新,每个互联网公司都有自己的抓取蜘蛛,比如百度蜘蛛、谷歌蜘蛛、搜狗蜘蛛等。
蜘蛛通过对页面的抓取和更新,实现对互联网所有页面进行URL+页面库的维护。Spider抓取系统包括链接存储系统、链接选取系统、DNS解析服务系统、抓取调度系统、网页分析系统、链接提取系统、链接分析系统、网页存储系统。BaiduSpider就是通过这种系统的通力合作完成对互联网页面的抓取工作。
百度蜘蛛的运行原理分为以下两个部分。
(1)通过百度蜘蛛下载回来的网页放到补充数据区,通过各种程序计算过后才放到检索区,才会形成稳定的排名,所以说只要卜载回米的东西都可以通过指令找到,补充数据
是不稳定的,有可能在各种计算的过程中被删床掉,检索区的数据排名是相对比较稳定的、百度目前是缓存机制和补充数据相结合的,止任问补允数据转变,这也是目前百度收录困难的原因,也是很多站点今天被删除了明天又放出来的原因。
(2)百度深度优先和权重优先,百度蜘蛛抓取页面的时候从起始站点(种子站点指的是一些门户站点)开始,广度优先是为了抓取更多的网址,深度优先是为了抓取高质量的网页,这个策略是由调度来计算和分配的,百度蜘蛛只负责抓取,权重优先是指反向连接较多的页面的优先抓取,这也是调度的一种策略,一般情况下网页抓取抓到40%是正常范围,60%算很好,100%是不可能的,当然抓取的越多越好。
在蜘蛛的实际抓取过程中,因为网页内容的复杂性(文本、Flash.视频等)和技术实现的多样性(纯静态、动态加载等),为了更高效地利用Spider资源,搜索引擎公司会采用不同的抓取策略。作为SEO人员,可以参考搜素引擎公司抓取测略的描述,采用最大化的SEO优化方法。
转载请注明出处。
亲爱的:若该文章解决了您的问题,可否收藏+评论+分享呢?
文章评论 本文章有个评论