现在做优化的都知道每天要更新网站内容和外链,那么大家对于我们每天所做的外链有没有仔细的去观察过呢,有的外链看似做成功了,但是对我们的网站是一点效果都没有的,今天就给大家介绍下以下几种情况,希望大家以后不要在这些外链资源上浪费时间了。
一、链接中存在JS代码
相信大家也都知道百度对于JS代码是不友好的,相信还有很多SEO新人对于锚文本链接里面包含了JS代码的作用是什么。如下图:
从上图我们可以看出我们做的外链中有一段JS代码,当我们把鼠标移动到超链接上的时候,他应该显示我所做外链的网址,而变成了JS代码,所以这样的外链对我们来说是没有效果的,根本不传递权重。
二、链接跳转
大家应该都去过搜搜问问里面做过外链吧,相信很多人说收录是非常快的,很多人基本上每天都要去做上一两条,但是不知道大家有没有研究过它的代码呢,他的代码是跳转的,根本就不传递权重给我们网站。看图:
三、链接中含有nofollow标签
nofollow 是一个HTML标签的属性值。它的出现为网站管理员提供了一种方式,即告诉搜索引擎"不要追踪此网页上的链接"或"不要追踪此特定链接"。这个标签的意义是告诉搜索引擎这个链接不是经过作者信任的,所以这个链接不是一个信任票。 简单的说就是,如果A网页上有一个链接指向B网页,但A网页给这个链接加上了rel="nofollow" 标注,则搜索引擎不把A网页计算入B网页的反向链接。搜索引擎看到这个标签就可能减少或完全取消链接的投票权重。具体的看下图:
四、链接模块使用frame框架结构
和JS代码类似,frame和iframe框架结构同样不利于搜索引擎抓取。搜索引擎爬虫发现这种框架结构时一般都会直接pass,如果在这中间做外链是没有效果的。
五、robots.txt中设置了限制抓取
当robots.txt规则限制了搜索引擎爬虫,不允许爬取某些指定的页面时,在这些页面中做外链一般是没有效果的。这里需要说明的是不按robots规则行事的搜索引擎是有意外的,例如淘宝规则限制,但还是有......。查看一个网站的robots规则我们可以打开该网站根目录的robots.txt文件进行查看,弄清楚哪些也页面做了有用,哪些页面做了外链没效果。如下图:
从上图可以看出来,DZ的 robots.txt 里面禁止了搜索引擎爬取日志页面,也就是说在DZ的日志里面留外链是没有效果的。
以上就是我们在给自己网站做外链的时候需要注意的地方,发点时间看下代码,不要浪费了大家的时间,希望能够帮助到大家,本文由http://www.jnsino.com编辑,转载请注明出处!
文章评论 本文章有个评论