1、搜索引擎原理决定。我们大致可以了解现在的伪原创工具的原理:同义字替换,段落打断,插入关键词,插入锚文本,加页头页脚,文章混编,无非就这些方式,那么根据搜索引擎的索引原理,同义词替换基本无用,因为大部分内容还是相同的;段落打断也是一样,搜索引擎的索引里大部分的数据还是相同的,这样做唯一的用处就是让文章无法阅读;插入关键词和锚文本也是一样,文章的主要内容的数据还是没有变;文章混排就是把几篇文章强行的柔和在一起,但是根据隐含语义索引法,同样会被搜索引擎识别。也就是说,搜索引擎完全有能力识别伪原创工具生产的文章,如果有不能识别的,那几乎就是天书,无人能读懂的文章了。
2、用户需求决定。试想,一篇被段落被打乱,词语被随意替换,插入无关内容的文章用户还有阅读的兴趣吗?那么,这样的文章只能提高网页的跳出率。用户根本不需要这样的内容,搜索引擎当然也不需要。
3、搜索引擎的需求决定。搜索引擎的目的就是让搜索结果最大程度的满足搜索用户的需求,这也是搜索引擎永远的目标和追求,试想,搜索引擎会让那些无法阅读的文章排在搜索结果的前面吗?答案是显而易见的。
根据百度近期的几次算法调整,我们发现越来越多的垃圾网站被搜索引擎降权甚至K站,百度对于那些浏览量高,跳出率低,页面停留时间长的网站给予了更高的权重,笔者就有切身体会,笔者有一个网站,连续3个月没有更新任何的内容,但是百度仍然给予天天快照,而且这个网站百度仅仅收录了63页,唯一的解释就是PV/IP非常高,网站跳出率极低,所以搜索引擎认为这个网站给用户提供了实质性内容。而有另一个朋友的企业网站,由于内容匮乏,部分文章采用了采集+伪原创工具处理,曾今一段时间排名非常好,但是算法数次更新以后,现在关键词排名已经表现非常凄惨。
那么面临这种情况,我们做为SEO又有何良策呢?答案就是高质量网站内容,关于高质量网站内容的标准开米尼也早就做过阐述,那就是:相关性,满足用户需求,原创性,丰富性和合理性。当然高质量网站内容不拒绝采集,其实采集一些相关内容为网站所用是非常有益的,搜索引擎也认可这种做法,如果我们在采集后做一下加工就更好了,例如修改更加适合的标题,对文章进行总结性描述,更合理的划分段落等等。
http://www.shengbentouzi.com 崇明注册公司 发布