一个优秀的网页设计对于任何试图在网上取得成功的业务来说都是很重要的,但是如果一个网站没有机会得到好的搜索排名,那么几乎没有多少人会看到你的网站。为了避免一个网站对搜索引擎不友好,你只需要考虑一些基本的搜索引擎优化准则以及优质内容开发实践。
作为一个网站设计者,我考虑了很多我曾经遇到的和听说过的在用搜索引擎优化创建站点时遇到的问题。下面是10条非常棒的搜索引擎优化建议,它们能让你在不牺牲你的创造性和风格的情况下做出对搜索引擎更友好的网站设计。
1. 确保你的网站导航对搜索引擎友好
如果你不清楚如何让Flash对象可访问和对网络爬虫友好,那么用Flash作为网站导航是很糟糕的选择。搜索引擎很难抓取一个使用Flash的网站。
CSS和不引人注意的JavaScript能够在不牺牲你的搜索引擎排名的情况下提供任何你需要的精心设计的效果。
2. 把脚本放在HTML文件之外
当你为网站写代码时,要确保你以外部引用的方式使用JavaScript和CSS。
搜索引擎通过所有包含在HTML文件中的内容来查看站点。如果没有用外部引用的方式使用JavaScript和CSS,会在你的HTML文档中增加一些额外的代码行,在大多数情况下,这些代码会在真正的内容的前面从而使得爬虫爬取速度变慢。搜索引擎希望能尽可能快的获取到一个网站的内容。
3. 使用搜索引擎爬虫能阅读的内容
内容是一个网站的生命力所在,也是搜索引擎需要的。在设计一个网站时,确保你仔细考虑过内容的良好结构(如标题、段落和链接)。
内容很少的网站总是在搜索结果中“苦苦挣扎”,在多数情况下,如果在设计阶段有更合适的计划的话是完全可以避免的。例如,不要用图片来代替文字除非你使用了CSS背景图片文字替换技术。
4. 设计你的URL使其对搜索友好
对搜索友好的URL不是那些难以抓取的URL,例如查询字符串等。最好的URL包含帮助描述页面内容的关键字。要注意一些内容管理系统使用自动生成的数字和特殊的符号作为页面的URL。好的内容管理系统会让你可以定制和美化网站URL。
5. 限制你不希望搜索引擎索引的页面
可能会有一些你不希望搜索引擎索引到的页面。这些页面可能是对你的内容毫无用处,例如服务器端脚本。这些网页甚至可能是在你正建立新的站点时用来测试你的设计的(虽然不建议这么做,但是我们大多数人仍然会这么做)。
不要将这些页面暴露给web机器人。你可能会给搜索引擎重复的内容,同时会稀释你的主要内容。这些页面可能会对你的网站的搜索位置产生负面影响。
最好的避免这些页面被搜索引擎检索到的方法是使用robots.txt文件,能改善你的网站的五个文件之一。
如果你的网站有一部分正在测试环境中使用,用密码保护这部分内容,更好的方法是,使用本地web开发环境如XAMPP或者WampServer。
6. 不要忽视图片的Alt属性
确保你的所有图片的alt属性都是描述性的。所有的图片的alt属性必须100%符合W3C标准,但是很多都只是通过简单地添加任意的文字来达到这个要求。没有alt属性也比不正确的alt属性好。
搜索引擎会读取alt属性,并且可能会将其纳入页面与搜索关键词相关性的考虑之中。这也可能用于像Google图片这样的基于图片排名的搜索引擎。
除了搜索引擎优化的角度,图片的alt属性还可以帮助盲人用户。
文章评论 本文章有个评论