刚刚在站长工具上检查网站的SEO综合数据,结果发现一网站被K。觉得奇怪,因为昨天同样的时间时这个网站的各项数据是很不错的,收录1万多,外链4万多,好几个核心关键词首页,甚至有前3之内的。现在是收录只有首页,外链只有1000多,只有2 个关键词排在85位。可怜啊,一夜回到解放前了。
因为我没有操作这个网站,所以无法一时之间知道被K的原因。不过看到这里我想和大家探讨一下网站被K的原因以及应对的方法。
网站被K 的原因有许多,如修改标题,关键词,作弊,改版,优化过度,友情链接,网站服务器不稳定等等。网站被K之后我们应该怎么办?不是心灰意冷,失去信心。而是认真对待,努力查找原因并有针对性的进行解决。
一、修改标题、关键词
网站的标题、关键词一旦确定之后不能频繁的改动,因为极易遭到百度的处罚。轻则降权重,重则K站。大部分网站被K就是因为这个原因。所以我们在建站的初期或者在进行优化之前就要确定好标题、关键词。如果到了某个时期,必须要对网站的标题和关键词进行更改,可以用下面的方法。本人亲自使用过,没有被K站。嘿嘿。修改的时候要小幅度、慢慢的来,比如今天修改一个词。过几天看看百度收录的首页有没有做同样的修改,并且检查有没有收录,外链减少的情况,如果没有就可以再修改第2个词。就这样依次修改就不会被K了。
二、作弊
许多站长为了达到快速排名的效果往往回采用作弊的手法,比如黑链等。建议广大站长们不要采用作弊的手法,因为优化是一个长期的工作,图一时之快不可取。还有一种就是“被作弊”。就是你的网站被人挂了黑链等,也会被K。所以站长应该经常检查网站的出战链接,看看有没有被“黑链”。
三、改版
改版的结果没其他的,被K。除非是像新浪那种网站,要不然只有被K。而且新站可能在很长的一段时间内都不被百度收录,那我们能不能有办法加快百度收录改版之后的新站了?有。可以在改版前设置robots.txt文件。屏蔽掉整个网站,这样百度就不会在收录你的网站,等改版之后修改robots.txt文件,允许百度抓取。这样百度会认为这是一个全新的网站,从而降低被K的风险。还有就是在改版之前准备好大量的原创文章,改版之后有规律的投放原文。要知道收索引擎一向对原创软文偏爱有加,所以能更好的吸引百度蜘蛛的爬取,加快被收录的步伐。
四、优化过度
如果你的网站在一段时间内做了大量优化工作,如外链突然增加很多,内容也增加了很多,这种情况也是会引起百度的注意的,也可能会导致被K的风险。所以我们应该有规律的优化,不能胡乱的优化。
五、服务器的原因
服务器方面主要集中在服务器不稳定,更换服务器等。所以建议大家尽量选择好的网络服务商,尤其是企业站,毕竟一个稳定的服务器对自己公司的网站也是一个有利的保证。
六、友情链接
高权重的友情链接可以带来高权重值,但是同时也能传递高权重的风险。友情链接被K也能导致自己的网站被K。所以应当经常检查友情链接网站的状况。有时会听到这样的抱怨:“自己的网站一被K,那些友情链接就全部撤销了”。这位站长应该体谅一下,毕竟友情链接能够影响到别人的网站。
七、内容大量采集
大量采集内容是极易伤害与百度之间的关系的,百度蜘蛛在爬取网站的时候和数据库进行对比,发现网站的内容全是采集而来,下次就不会在来爬取。时间长了就会被K,因为百度会认为这个网站一点用处也没有。采集的时候尽量修改一下,做成伪原创也行。
八、百度数据异常
百度数据异常这我就不多说了,你懂的。记得今年5月份,那次百度数据的异常,导致无数网站出现问题,你是知道的。
好了,今天的网站被K分析就到这里了,总之一句话:“被K不可怕,可怕的是失去信心,不能长期坚持下去。”
文章评论 本文章有个评论