关于SEO优化方案

简介:
< DOCTYPE html PUBLIC -WCDTD XHTML TransitionalEN httpwwwworgTRxhtmlDTDxhtml-transitionaldtd>

1.title标签网站标题

      一般格式:文章名 – 分类名 – 网站名
      如果太长的话,就只要文章名 – 网站名

       搜索引擎只考虑标题标签中有限的字数,比如说前十到前十五个字。所以很长的充满关键词的title tag,只能使你的网站看起来更像垃圾。

2.meta标签

       标题标签不要超过十到十二个字。描述标签也不要超过三十到三十五个字。关键词标签只要列出确实和你的网站有关的重要关键词
        在这所有的三个标签里,都切忌重复和堆砌关键词。meta不要每个页面都千篇一律。

3.URL中的关键词

      对英文网页来说,关键词出现在URL中,多少会有点帮助。对搜索引擎相关性算法的帮助可能很小,但其实对用户帮助蛮大的。因为搜索结果列在搜索引擎中时,用户可以从你的文件名就判断出这个网页是讨论什么的。
       关键词可以在域名里,也可以在目录名里,也可以是文件名,不过切忌关键词堆砌在URL中。

4.文章长度有利于SEO

      首先,文章最短也应该在200字左右以上。原因有两个:
      1)如果只有几十个字,搜索引擎不容易判断出文字的主题是什么,也就判断不出与什么关键词最相关。
       2)正文太短的话,有可能比导航系统,菜单,版权声明等杂七杂八的东西加起来的字数还少,被怀疑是复制内容。如果这样的文字过少的页面大量存在,可能造成网站内部复制网页增多。因为你的网页之间相似性太高,有区别的文字太短。
      长文章容易吸引链接。看过很多很长的文章,甚至长到几十页。虽然读的时候拉来拉去有点儿不方便,但这样的文章其实是比较容易吸引链接的。

5.robots.txt使用

      robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。
       语法:最简单的 robots.txt 文件使用两条规则:
        User-Agent: 适用下列规则的漫游器
       Disallow: 要拦截的网页

  1. 每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该在网站中添加一个robots.txt。
2. 网站管理员必须使蜘蛛程序远离某些服务器上的目录——保证服务器性能。比如:大多数网站服务器都有程序储存在“cgi-bin”目录下,因此在robots.txt文件中加入“Disallow: /cgi-bin”是个好主意,这样能够避免将所有程序文件被蜘蛛索引,可以节省服务器资源。一般网站中不需要蜘蛛抓取的文件有:后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。
User-agent:
该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User-agent:SomeBot"和若干Disallow、Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的Disallow和Allow行的限制。
Disallow:
该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被robot访问。例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。
Allow:
该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。
需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL。
使用"*"和"$":
Baiduspider支持使用通配符"*"和"$"来模糊匹配url。
"$" 匹配行结束符。
"*" 匹配0或多个任意字符。

6.建立sitemap站点地图

      XML地图可以让搜索引擎更迅速地了解你站点的更新。Google和yahoo都已经使用sitemap xml地图加速收录服务了。

0
0
« 上一篇: Sitemap.xml在线生成站点与工具(转)


本文转自 netcorner 博客园博客,原文链接:http://www.cnblogs.com/netcorner/archive/2009/12/30/2912036.html    ,如需转载请自行联系原作者

相关文章
|
2月前
|
自然语言处理 SEO
企业网站选择什么CMS系统更有利于SEO优化
企业网站选择什么CMS系统更有利于SEO优化
35 5
|
3月前
|
搜索推荐 算法 SEO
移动端的seo优化要怎么做
在如今移动端优化规则不断完善的时代,现今做网站推广要想获得更多的流量,移动端网站关键词排名自然是不可轻视的优化步骤,但移动端网站排名的规则与PC端网站优化排名算法有很大的差异,那么移动端关键词优化有哪
|
6月前
|
搜索推荐 SEO
|
数据采集 自然语言处理 监控
如何做海外SEO优化?
答案是:海外SEO优化需要足够多的GPB外链+足够多的优质内容。 选择合适的目标市场 确定潜在市场 在扩展到海外市场之前,首先要确定哪些国家或地区的用户可能对你的产品或服务感兴趣。 考虑文化差异 每个国家和地区都有自己的文化特点。 为了有效的海外SEO优化,了解这些文化细节是关键。 关键词与内容策略 使用本地化关键词 直接翻译关键词可能不会得到预期的效果。 需要使用当地的关键词工具来进行研究。
282 0
如何做海外SEO优化?
|
前端开发 搜索推荐 JavaScript
前端SEO优化的实用指南
前端SEO优化的实用指南
565 0
|
运维 搜索推荐 UED
整站优化从何做起?整站SEO优化的具体流程
整站优化从网站结构、目录、内部链接、网站内容及网站html代码等进行基础优化改造,是目前网站优化的最佳解决方案,但很多企业对整站优化并不了解,接下来小编会告诉你整站优化从何做起以及有哪些流程,一起看看吧。
194 0
|
移动开发 搜索推荐 前端开发
什么是整站优化?整站SEO优化解决方案
整站优化的解决方案不仅可以帮助客户完成国内主流搜索引擎优化(百度),也可以完成国外搜索引擎优化(谷歌),让客户从不同的终端均可获取更好的收录数量与关键词排名,从而达到品牌SEO推广及引流的目的。
228 0
|
索引 SEO
手机端SEO应该怎么做?
PC端SEO大家都知道怎么做,那么关于手机端的SEO优化大家知道吗? 现在手机用户比电脑用户多得多,所以在做SEO的时候,手机端优化也很重要。 手机端排名的原理 1、使用PC端的索引库 手机端没有专用的索引库,用的是PC端的索引库,如果我们要做手机端的PR值和网站权重排名,首先要把PC端的排名做好才行。
234 0
|
UED 索引 SEO
电商网站SEO优化如何做?
电商网站SEO技术有哪些? 电子商务是增长最快的行业之一,通常被认为是由淘宝和拼多多等主导。 但是,通过适当的营销策略,小型电子商务网站也可以获得公平的客户份额。 这就是SEO技术的用武之地。这对提高在线商店的可搜索性至关重要。
2259 0
|
JavaScript 搜索推荐 UED
做SEO优化时需要注意的几个细节
很多站长说他们把自己的新站做好以后,在做网站优化的时候经常没什么效果,这个时候一般问题就是出现在细节上面,今天淄博SEO小编在这里列出了有多朋友都不怎么注意的细节问题供大家参考。 1.在关键词的选择上不够合理 我们都知道,选取好了一个合理的关键词那么网站就成功了一半,那么我们如何来选择合理.
1517 0