账号通
    

账号  

密码  

3310

查看

7

回复
主题:SEO应如何巧妙对网站死链接,重复页面的问题 [收藏主题] 转到:  
plaieu 当前离线

46

主题

0

广播

0

粉丝
添加关注
级别:学前班

用户积分:40 分
登录次数:4 次
注册时间:2010/6/27
最后登录:2011/1/15
plaieu 发表于:2010/12/9 11:23:49   | 显示全部帖子 查看该作者主题 楼主 
SEO应如何巧妙对网站死链接,重复页面的问题



死 链 接:蜘蛛以前爬取过,但是后来无法访问的链接 我们称为死链接。

错误链接:用户地址输入错误。

重复页面:就不必说了,就是页面内容完全重复而访问地址不同的页面。

首先举个死链接很简单的例子:http://www.cixuanji.org/Html/Faq_s_469.html

而其中Html/Faq_s_469.html就是你网站中应该有的处理网站死链接已经重复页面的txt格式的文档,引擎会通过这个文件来获取你网站哪些该抓取,哪些是你不让他抓取的内容。

好,切入正题。死链接以及重复页面的处理方法:

1、先用死链接检测工具(这里推荐站长工具,口碑比较好)把死链接找出来,然后用robots.txt语法屏蔽掉。

(强调一下这个robots.txt四周后生效)



2、具体要怎么写,我现在教教大家,希望大家耐心的看下去:

首先打开robots.txt

User-agent:定义搜索引擎。

User-agent:* (定义所有搜索引擎,其中*就是代表所有)

Disallow:(禁止访问)

allow:(允许)

例如:User-agent:*   定义所有搜索引擎

Disallow:/admin/      禁止访问admin目录

Allow/admin/aa.html   允许访问admin目录下aa.html这个文件

这样就可以很有效的和引擎握手。当然对你网站的排名也是有一定帮助的。





 
  支持(16) | 反对(16) 回到顶部顶端 回到底部底部
<上一主题 | 下一主题 >
Powered By KesionCMS Version X1
厦门科汛软件有限公司 © 2006-2016 页面执行0.04688秒 powered by KesionCMS 9.0