这篇访谈有点早了,是今年3月份时的事。Matt Cutts针对Google的爬行,索引机制以及对301重定向,重复内容处理的问题做出了些回答。访谈的原文比较长,SEOmoz有人以插图的形式很好的再现了这次访谈的大致内容,比较直观,这里我进行下转载。
#1. 关于爬行和索引
关于索引问题,我想应该很多朋友都有体会,为什么我的站Google收录的很少?为什么我发的反链Google都没有收录?
Google目前的索引量到底有多大,大家可以在Google里搜索a试试,从这个结果应该能看出个大概。
About 25,420,000,000 results (0.17 seconds)
然后,根据资料,截止到2007年2月,互联网上已经发现的网站数量是108m,810,358个。
我们暂且拿当今的Google索引量,除以两年前的网站数目,也就是平均下来,每个站的Google收录量不到300。那么实际情况呢?
很多时候,并不是Google没有发现你的页面或者反链,只是觉得这些页面或者反链不够重要,没什么必要加入到他们的索引数据库里以供用户查询时返回结果。
那么什么样的页面才是重要的页面?Google又是怎么判断的呢?PageRank是这份插图所列举的一个例子。
#2. 站内重复内容
这里提到了尽量使用canonicalization来避免站内重复内容导致的索引问题。
亲爱的:若该文章解决了您的问题,可否收藏+评论+分享呢?
文章评论 本文章有个评论