|
主题:SEO应如何巧妙对网站死链接,重复页面的问题 [收藏主题] | 转到: |
SEO应如何巧妙对网站死链接,重复页面的问题
死 链 接:蜘蛛以前爬取过,但是后来无法访问的链接 我们称为死链接。 错误链接:用户地址输入错误。 重复页面:就不必说了,就是页面内容完全重复而访问地址不同的页面。 首先举个死链接很简单的例子:http://www.cixuanji.org/Html/Faq_s_469.html 而其中Html/Faq_s_469.html就是你网站中应该有的处理网站死链接已经重复页面的txt格式的文档,引擎会通过这个文件来获取你网站哪些该抓取,哪些是你不让他抓取的内容。 好,切入正题。死链接以及重复页面的处理方法: 1、先用死链接检测工具(这里推荐站长工具,口碑比较好)把死链接找出来,然后用robots.txt语法屏蔽掉。 (强调一下这个robots.txt四周后生效) 2、具体要怎么写,我现在教教大家,希望大家耐心的看下去: 首先打开robots.txt User-agent:定义搜索引擎。 User-agent:* (定义所有搜索引擎,其中*就是代表所有) Disallow:(禁止访问) allow:(允许) 例如:User-agent:* 定义所有搜索引擎 Disallow:/admin/ 禁止访问admin目录 Allow/admin/aa.html 允许访问admin目录下aa.html这个文件 这样就可以很有效的和引擎握手。当然对你网站的排名也是有一定帮助的。 |
|
支持(16) | 反对(16) 顶端 底部 |
支持(16) | 反对(16) 顶端 底部 |
http://www.ef230.com/, http://www.ef230.com/ | |
支持(15) | 反对(12) 顶端 底部 |
lianfu2007 发表于:2010/12/9 16:44:29 | 只看该作者 查看该作者主题
板凳
|
|
支持(12) | 反对(10) 顶端 底部 |
wcc57590252 发表于:2010/12/9 16:59:39 | 只看该作者 查看该作者主题
报纸
|
|
支持(7) | 反对(4) 顶端 底部 |
wcc57590252 发表于:2010/12/9 17:00:02 | 只看该作者 查看该作者主题
地板
|
|
支持(2) | 反对(1) 顶端 底部 |
anmaming11 发表于:2010/12/9 23:16:50 | 只看该作者 查看该作者主题
7楼
|
|
支持(0) | 反对(0) 顶端 底部 |
支持(0) | 反对(0) 顶端 底部 |
<上一主题 | 下一主题 > |