基础概念开始
SEO,搜索引擎优化。概括来说就是针对分析搜索引擎的网站收录以及评价规律,来对网站的结构,内容以及其他因素作出一些合理调整,使得网站更容易被搜索引擎收录,并且能够尽量排在搜索引擎自然排名的前列。
在上段中提到了自然排名这个概念,是因为在搜索引擎中,还有着另外一个部分,在常规意义上,我们称之为“右侧广告”。不过我们在查看时发现这个概念已经不够准确,因为百度的广告已经不只在右侧。
而google在这里则体现了技术型公司和商业型公司的差别,google只有右侧的广告。
SEO——加密与解密
其实,SEO的过程很类似与加密和解密的过程。加密和解密是软件制造商和破解者的对弈,也可以说是网管与黑客之间的较量。而SEO则很类似于搜索引擎和SEO专家之间的较量。
搜索引擎公司,我们在这里以Google为例,最核心的技术莫过于他的搜索算法,他可以把所有的程序开源,但他绝不会把自己的搜索算法,排名算法公布于众,这是他的立家之本,所以那些Google蜜们不要总是用开源来嘲笑微软。
SEO专家,顶尖的SEO专家需要做的是根据长期的实践,以及推理能力来“破译”搜索引擎的排名规则,然后去迎合搜索引擎,来让网站有着一个更好的排名。
因此,SEO是个无休止的工作,搜索引擎的排名规则会不断地升级变化,相应地就要产生不同的SEO策略。此外,SEO是一项工程,他需要SEO专家集行业经验,甚至数据挖掘,心理学,统计学等知识于一身,这也是一个专业的SEO的专家必须掌握的知识。
SEO实践总结
在以往面试的时候,尤其是电子商务公司的时候,经常会遇到这样的问题,懂SEO么?我总是会回答:不懂,但是我感觉SEO不过是Web标准化而已,现在看来我的这句话就是一句笑话。
不过看了四五本书之后,基本的观点大致内容如下:
A. 关键字。关键字是SEO工作的重中之重,其中包括Title,Desciption,内文,哪怕在到URL。尽量都要有关键字。用汽车来做例子:
<1>题目要包含关键字:
<2>描述要包含关键字:
<3>内文要包含关键字,也就是body中的正文,文字的关键字密度要适度!
<4>URL要包含关键字,这个对于中文站点关系几乎不大,如果是英文,那么http://www.car.com.cn/和http://www.autohome.com.cn/,同样的网页内容,前者的收录排名一般会比后者要高。
B. W3C标准。我们知道,搜索引擎是派爬虫(蜘蛛等)来搜索我们的网站,爬虫在到达我们网站的时候,会按照顺序来爬行我们的网页,当然,爬虫是会遵从于Web标准的,固然当今的搜索引擎爬虫比较智能,只要网页没有大的错误,爬虫都能够顺利地解析,不过我们何必要为难我们原本就很忙的爬虫呢。所以让我们的网页来遵从Web标准还是有必要的。
另外,强调一点,就是当我们的页面充斥着图片和Flash时,爬虫是无法顺利解析我们的网页内容的。因此这个时候,对其添加必要的文字说明是十分必要的。比如图片标签的Title属性,值得注意的是,我们也可以尽量让Title属性突出我们的关键字。
C. PR值。Google首创了佩奇等级的概念,又几乎亲手把这个废除掉了。这个究竟是否还重要,谁也说不清,我从网上也搜索了一些资料,其中我认为最靠谱的就是佩奇等级在Google排名的比重中还是有一定地分量,但是分量会越来越低。
下面就来简单地介绍下PR值。PR:Page Rank。需要注意的是Page在这里不是“页”的意思,而是一个人名:佩奇。下面来分析一下PR值的计算公式:
PR(A)=(1-d)+d(PR(T1)/C(T1)+…….+PR(TN)/C(TN))
其中PR(A)代表的就是网页A的佩奇等级。
PR(TN)代表的是链接到了网页A的网页的PR值。
C(TN)代表的是网页TN导向其他网页的数量。
如果觉得这个公式难以理解,那我们就来模拟我们人类的思维。如果一个网页被无数人推荐,那么这个网页是一个好网页。如果一个网页推荐了太多其他的网页,那么被推荐的某一个网页被人点击的概率一定要比一个网页只推荐了另外一个网页的概率要小。另外,我们再想,一个网站被新浪推荐,和一个网站被一个不知名的小网站收录,明显前者更权威!搜索引擎也完全是模拟了人类这样的思维。
不过随着太多垃圾站的建立,这个PR值的作用越来越小了,水分也越来越大了。
D. 对域名的要求。有句很概括的话是说:动态网页会让搜索引擎望而却步。我们不妨看这样一个例子:
如果存在这样一个界面,搜索引擎不是人,他不会模拟人点击搜索按钮的动作,他会做的只是搜索已经提交了的页面,具体是.aspx还是.html就已经不重要了,重要的就是这个页面已经提交。如果点击这个搜索之后是这样的URL:http://autohome.com.cn/search.aspx?brand=111;那么这个页面几乎就不会被收录。因为搜索引擎无法在search.aspx后加上URL参数。
E. 关键内容尽量放在前端。在前文中提到过,搜索引擎爬虫是按顺序来爬行整个网页的,因此如果你把关键内容放在前端就会提高你的页面被收录的机会。相反,如果你的前端放的是一堆Javascript,CSS代码,爬虫首先爬到的是这些,那么你的网站被收录的机会就会小一些。当然,网络上现在有一种说法是,爬虫已经可以绕过Javascript代码直接爬到HTML正文内容中去,不过谁又能说得准呢?
F. 注意内链。整个网站要形成一个统一的整体。网站的每个页面尽量不要成为一个孤岛,而要和其他的页面相连。这样不仅有利于用户的访问,而且也有利于搜索引擎爬行到你的整个网站所有的页面。
G. 站点地图(Sitemap)。提到站点地图,相信每个人都对这个概念不陌生。站点地图的主要作用是给搜索引擎提供一个了解网站的途径,尤其是当你使用Flash做Menu的时候,站点地图尤其重要。因为爬虫读不懂你的Flash,他了解你网站只能通过站点地图。站点地图其实就是一个普通的HTML页,上面是指向各个网页的链接,然后我们把这个站点地图的链接放到首页。
4. 可持续的SEO战略
有太多的SEO公司采用的是一些令人不屑,令搜索引擎方案的营销优化策略。
诸如建立无数个垃圾站以增加导入链接,从而提高网站的PR值。用Javascript跳转来欺骗搜索引擎等等五花八门的SEO策略。
也许这些策略对于当前的网站是有好处的,但是我们知道科技是不断进步的,搜索引擎也会越来越强大,谁知道这样的SEO策略会坚持多久,而这样的网站会不会有一天如当初的Google Dance一样突然一夜之间被打入冷宫呢。
就像前年在中国发生的博客事件一样,新浪博客从前允许匿名评论,于是就出现了许多二线明星为了刷自己博客的流量就模拟自己的粉丝来在自己的博客上留言,结果当去年新浪突然把匿名评论的人全都完全显示出来的时候,就又爆出了中国娱乐圈的一大丑闻。
我们谁有知道这样的事情会不会发生在我们的SEO上呢?
5. 什么是真正的SEO
从我个人角度来讲,我是对SEO没太大好感的,也许是因为国内太多的打着SEO牌子的公司都是在做一些“让搜索引擎反感”的SEO工作。
那什么是真正的SEO?
我个人认为,用心去把自己的网站做好,这就是真正的SEO。还记得上个月公司组织培训,老大在前面讲我们大家有谁做过SEO?没人说话,老大接着说,我们不需要SEO,我们需要做的是每天按时更新,及时更新,这就足够了,在搜索引擎上我们一样是最前列。
说这个我只是想说明,上面提出的那些SEO策略是否有用?有用,但是这都不是关键,关键是我们是否用心去对待了我们的网站。Web1.0是一对多,Web2.0是多对多,有人说Web3.0是基于语义的互联网,那谁又能知道Web4.0会不会是完全基于人工智能的互联网呢?
如果搜索引擎真的发展到了那一步高度,所有的SEO策略也许几乎都会垮掉,而唯一有用的就是我们用心去做我们的网站,我想搜索引擎也会感受到吧。
本文地址:http://www.nowamagic.net/librarys/veda/detail/768,欢迎访问原出处。