注册 登录  
 加关注
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

精灵之家

欢迎来这里做客。。。

 
 
 

日志

 
 

搜索引擎优化方面的注意要素  

2009-12-06 16:49:04|  分类: 电脑秘籍 |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |

  假如你的web项目是企业内部应用,我觉得看这篇文章就没有很大的必要了,对你不会有帮助。但是只要你的web的项目使用www服务,那就要和可爱的蜘蛛大交道了。大道理就不多谈了,人们对搜索引擎的以来相信不会任何其他的互联网工具吧!正因为这样,搜索引擎优化编程才越来越体现出它的作用了。 
首先介绍下什么叫做搜索引擎优化编程:搜索引擎通过优化针对提高排名,使自己的站点从免费的搜索结果中获得较多的访问者。我们经营一个网站的大多数目的是为了获得较多的访问者。在这里有一个问题,我们除了自己推广我们的服务的同时当然更希望搜索引擎也能帮帮我们。但是在大多数情况下,会有一些其他网站提供和我们类似的业务,在搜索引擎收录业务甚至页面相似的内容时(这里要只考虑免费的情况),如何让自己的站点排在靠前的位置呢?有的时候我们会遭遇这样一种情况,自己站点的内容被其他站点抄袭,但是在搜索的时候,相同的页面对方会排在前面呢(虽然搜索引擎会依据时间来区别,但是有时候却没有)?


  说白了,搜索引擎优化的目的就是让我们的站点不但要受用户喜爱,还要受蜘蛛喜爱。大家经常提到PR值,也就是Google的一种服务,全名为Google PageRank,它主要衡量网页的重要程度,一般认为PR值较高的相比之下更容易被搜索引擎排在靠前的位置。但是也有不同的观点,认为PR值不一定决定一个网站被搜索引擎收录的情况,确实在有时候,Google自己也没有做到这一点。另外,不同的搜索引擎对同一个页面的收录情况可能感觉不一样。在这里我说说自己的看法吧,Google在一定程度上更适合我们去优化,也更容易看到我们优化的效果,但是在很多时候,我却发现Baidu对我们的新内容更感兴趣而收录的速度比Google要快。


  前面的介绍应该让读者明白了搜索引擎优化编程是怎么回事吧。下面主要说说一个页面影响搜索引擎收录的几个因素吧。有时候我很想知道一些搜索引擎的算法,这样对我做优化应该有很大的帮助,但是遗憾的是我却一直没有做到这一点,因此,还是老老实实地从自己的页面出发吧。影响一个页面被收录的因素主要有页面内容、时间和一些外部因素。


  页面内容对收录的影响相信大家都很清楚。搜索引擎自然对一些新的内容甚至一些好的内容更感兴趣。这里的页面内容主要分为可见的和不可见的。可见的包括我们的标题和页面的内容等,而不可见的包括我们经常使用到的一些META标签,在那里我们常常定义一些关键字和描述。确实这样做很有好处,也是必不可少的。可见的内容其实我们都知道,这里要说几个细节,内容的布局,div等标签的使用都会对收录产生一些影响,很多人在使用文章的标题时,经常只是把字体设置大一些。其实不然,我们如果使用<h></h>标签时页面的标题更容易被搜索引擎收录。


  还有一个不得不说的就是现在网页设计一定会用到的div标签,一些刚使用它的设计人员经常会为了布局而将其写得很凌乱,这样的网页不仅给以后的修改人员带了麻烦,更给搜索引擎的收录带来了许多任务,蜘蛛就会认为这些页面内容很混乱,所以在使用div时一定要清晰明了,要不然还不如不使用。也许有些人还注意到了在visual studio里面插如图片时会提示要给图片加入alt属*,这样大大地方便了搜索引擎对图片的理解,因为蜘蛛不会理解图片的内容。


  至于不可见部分,前面的那些META标签请务必写得准确,容易理解。准确地应该这么说:合适地描述你的页面。


  时间因素,这里我的看法是,一个长期地址固定的页面应该在搜索引擎收录的位置更高。如果一个域名在很短时间内消失或者一个站点的页面经常遇到404错误的话,蜘蛛在爬行的时候有可能会忽略它们,原因是它们有可能是在发布垃圾信息,在这里你在更换域名的时候应当特别注意,如果可以,请不要更换你的域名。


  其他的一些方面,要注意的还有一些,这里我说说比较重要的几点。首先最重要的就是请尽量避免你的站点有重复内容,如果你的站点有许多重复的内容,那就非常危险,因为搜索引擎回惩罚那些有许多重复内容的站点,甚至有时候会拒绝收录。这里要说明一点,因为有人会说搜索引擎有时候比较难区分一些内容相似的页面。确实,关于这一点现在还难有一个统一的说法,但是为了避免风险,还是请你尽量避免站点内有许多重复的内容。还有一个比较重要的方面,那就在用户留言的时候请阻止一些无关的链接,因为蜘蛛会顺着那些链接爬行,一旦发现那些链接地址都是一些无关的内容(有时候是恶意软件提交的内容),下次也许不会光顾你的这个页面了,这个搜索引擎收录带来了麻烦。这里还有一个办法会给我带来好处,有许多人已经在使用了,那就是和一些相关的网站交换链接,这样对收录很有好处,原理和前面说的一样。


  SEO的东西翻来覆去也就那么多了。还在PR算法上下功夫,就是提高自身内容的质量以期增加对自身优秀内容的引用。在蜘蛛们身上下功夫,就是让网站整体标准化,语义化。


  我觉得,SEO这个东西是很投机的行为,针对搜索引擎优化而非自己的用户,这个说法就“不正确”。网站的本身目的并非搜索引擎,而是吸引用户,应该更多的在如何提高UE和本身质量上下功夫。


  而且,实际上,所有的PR算法都是基于这个网站对访问者潜在的价值进行评估的,所以只要网站内容本身就好,PR自然就会高,没有必要做什么劳什子的SEO。针对搜索引擎,感觉有些“本末倒置”。


  至于网站重构的标准化和语义化,个人觉得是“天经地义”的事情。既然在制订html标准的时候,每一种标签都有了自己的作用,为什么不按照规则去做呢?感觉标签的使用就像程序里面的变量命名一样,可以用a来表示当前的日期,也可以用currentDate来做变量名,取前者的,只怕从来都只有混淆器吧?

  评论这张
 
阅读(198)| 评论(1)
推荐 转载

历史上的今天

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2018