最近有朋友说他负责优化的站点收录一直上不去,觉得很奇怪,因为网站数据本身的数据量还是蛮大的,但是很多页面却没收录。做SEO的都知道,这个涉及到很多方面,简单地说就是:内优和外优。一个网站要想获得最好的排名,最大的流量,最高的权重,就必须做好站内和站外的优化。他说外部优化这块是没有问题,所以可以肯定的说问题在于他网站本身。虽然内优也包含很多方面,但在这些重要因素中一个属于先天性的,能决定网站页面的收录数量及重要性(即页面权重)方面有着重大的影响的因素就是网站结构。然后我仔细看了一下他的网站结构,发现一些问题:首页结构还算合理,但是到了内容却很无赖,大量的<iframe></iframe>框架结构,大家都知道这个蜘蛛无法爬取,更谈不上收录了,汗啊,不懂的SEO的设计师的作品!
为什么说网站结构在决定网站页面的收录数及页面权重方面具有重要作用呢?
要了解这个问题,我们就要先学习搜索引擎蜘蛛爬取和收录网页的方式。
爬行和抓取是蜘蛛工作的第一步,而超链接就是蜘蛛爬行的路,为了抓取尽量多的页面数据,他们会顺着发现的每一个链接爬下去,并收集新的数据。从理论上说,蜘蛛从任何一个页面出发,顺着链接都可以爬行到网上的所有页面。然而,对于蜘蛛来说网站结构及页面链接结构是非常复杂的。所以我们的搜索引擎工程师也想到了这一点,给我们的蜘蛛做了两个非常好的爬行策略:一种是深度优先,另一种是广度优先。
我们来看一下深度优先是这样描述的:
所谓深度优先,指的是蜘蛛沿着发现的链接一直向前爬行,直到前面再也没有其他链接,然后返回到第一个页面,沿着另一个链接再一直往前爬行。
广度优先是指蜘蛛在一个页面上发现多个链接时,不是顺着一个链接一直向前,而是把页面上所有第一层链接都爬一遍,然后再沿着第二层页面上发现的链接爬向第三层页面。
通常来说深度优先和广度优先是混合使用的,这样既可以爬取到尽量多的网站(广度优先),也能爬取到更多的网站内页(深度优先)。实际上蜘蛛没有想象的那么顺利,一些小站还好,但往往很多站点的数据量很大,页面很多,相当一部分数据蜘蛛会抓取不到,怎么办呢?这就需要一个非常符合蜘蛛爬取的网站结构。
什么样的网站结构最符合蜘蛛爬取呢?
我们平时说的网站结构一般从两个方面理解:一是物理结构,一是逻辑结构(链接结构)。对于小型站点来说,扁平化得结构已经足矣,对数据量较大的大型站点来说比较好的就是逻辑结构与树型物理结构完美结合,才能更好的服务于SEO。简单的说就是将网站首页,栏目页,内容页之间的链接结构清晰化,让蜘蛛很容易就能发现下一个页面的存在。这就需要我们SEO去这样设计网站结构:
主页链接向所有的栏目主页
主页一般不直接链接向内容页,除非是你非常想推的几个特殊的页
所有栏目主页都连向其他栏目主页
栏目主页都连回网站主页
栏目主页同时连向属于自己本栏目的内容页
栏目主页一般不连向属于其他栏目的内容页
所有内容页都连向网站主页
所有内容页都连向自己的上一级栏目主页
内容页可以连向同一个栏目的其他内容页
内容页一般不连向其他栏目的内容页
内容页在某些情况下,可以用适当的关键词连向其他栏目的内容页
如果按照上面的方法来设计好网站后,无论蜘蛛怎么爬,你网站的页面都会得到充分的展现机会,对于网站内部优化来说已经做好了95%。一个好的网站结构不仅有利于搜索引擎对页面的收录,减少大量外部优化的工作量,而且是衡量一个网站用户体验好坏的重要因素,清晰的网站结构可以帮助用户快速获取所需信息;相反,如果一个网站的结构很乱,蜘蛛将会很吃力,严重影响他们的爬行,他们只会放弃你的站,对用来说,他们在很有限的时间内找不到想要的信息,他们也会放弃浏览的。本文为BLUEFATE原创作品,这个是我优化的站点亚太卫浴网www.ytwy360.com转载请保留,谢谢啦。
文章评论 本文章有个评论