重复收录对网站seo优化的弊端想必大家都是知道的。重复收录,就是搜索引擎重复收录相同内容的页面。大量的重复内容当然是没有意义的,不管是对搜索引擎还是用户,相当于互联网垃圾。
一般来说重复收录的情况分为同站重复收录和非同站重复收录两种。后者是其他站抄袭自己的站,或者镜像网站,对自己本身的网站影响不大。而前者重复收录的是同一个站内的页面,严重的话可能导致被k。
导致网站被重复收录的原因有很多,在这里笔者主要讲一下刚刚碰到的一个情况。使用WP(word press)搭建的博客评论中的“?replytocom”。
上图就是当时该页面被百度重复收录时的截图(截图的时候本博已经被百度拔毛),可以看到连接中都带有“?replytoco.”。其实就是“?replytocom”,这表示百度蜘蛛抓取了该页面评论中的链接,导致了重复收录。不过谷歌并未如此重复收录?replytocom,并不是谷歌robot无法抓取。只是谷歌检测页面的能力相对比较强,发现相同页面不会收录。而百度蜘蛛则相对的弱一些,如果不及时处理的话,当出现大量相同内容,可能会导致网站被百度降权。
解决的方法就是在robots.txt中写下规则禁止蜘蛛收录。在robots.txt中添加以下代码即可:
Disallow:/*?replytocom=
因为笔者使用的wp搭建的博客,至于其他系统的网站是否也会出现这种问题就不清楚了。但是出现重复收录相当于制造了垃圾信息,对互联网环境和wp网站的seo优化总是不好的。使用wp的同学,为了网站seo优化要谨防“?replytocom”导致的重复收录啊!
除非特殊注明,本博客文章均为于申原创,版权归于申blog所有。
本文地址:http://www.yushenblog.com/seo/120.html 转载请务必注明出处,谢谢。
文章评论 本文章有个评论