账号通
    

账号  

密码  

2187

查看

0

回复
主题:[转帖]网站优化教程:robots.txt [收藏主题]  
zgsj8008 当前离线

53

主题

0

广播

0

粉丝
添加关注
级别:学前班

用户积分:447 分
登录次数:9 次
注册时间:2009/8/18
最后登录:2010/8/20
zgsj8008 发表于:2010/5/11 20:13:00   | 只看该作者 查看该作者主题 楼主 
科汛智能建站系统
[BR]首先,我来介绍一下什么是robots.txt:robots.txt是搜索引擎中访问网站的时候要查 看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是 否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有 被口令保护的页面。最后,robots.txt必须放置在一个站点的根目录下。
[BR]  大家可以参考一下谷歌、百度和腾讯的robots写法:
[BR]  http://www.google.com/robots.txt
[BR]  http://www.baidu.com/robots.txt
[BR]  http://www.qq.com/robots.txt
[BR]  大家了解完robots.txt后,那么我们可以用robots.txt来做什么?
[BR]  1、用robots.txt屏蔽相似度高的页面或没内容的页面。
[BR]  我们知道,搜索引擎收录网页后,会对网页进行“审核”,而当两个网页的相似度很高时,那么搜索引擎就会删除掉其中一个,并且会降低一点你网站的得分。
[BR]  假设以下这两个链接,内容其实差不多,那么第一个链接就应该屏蔽掉。
[BR]  /XXX?123
[BR]  /123.html
[BR]  像第一个的链接这样的链接非常多,那么我们要怎么屏蔽呢?其实只要屏蔽/XXX?就可以屏蔽所有的链接了。
[BR]  代码如下:
[BR]  Disallow: /XXX?
[BR]  同理,一些没有内容的页面我们也可以利用相同的办法将其屏蔽掉。
[BR]  2、用robots.txt屏蔽多余的链接,一般保留静态的链接(既HTML、htm、shtml等)。
[BR]  由于网站中经常会出现多个链接指向同一个页面的情况,而这样会让搜索引擎对网站的友好度降低。为了避免这一个情况,我们就可以通过robots.txt把 非主要的链接去掉。
[BR]  比如以下两个链接指向同样的页面:
[BR]  /OOO?123
[BR]  /123.html
[BR]  那么我们就应该去掉第一个垃圾,代码如下:
[BR]  Disallow: /OOO?123
[BR]  3、用robots.txt屏蔽死链
[BR]  死链就是曾经存在的网页,因为改版或其他原因而失去效用后就变成死链,也就是说看似一个正常的网页链接,但点击后不能打开相对应的网页页面。
[BR]  比如,原来在目录为/seo下的所有链接,因为目录地址的改变,现在都变成死链接了,那么我们可以用robots.txt把他屏蔽掉,代码如下:
[BR]  Disallow: /seo/
[BR]  4、告诉搜索引擎你的sitemap.xml地址
[BR]  利用robots.txt可以告诉搜索引擎你sitemap.xml文件的地址,而不需要在网站上添加sitemap.xml的链接。具体代码如下:
[BR]  Sitemap: 你的sitemap地址
[BR]  以上就是robots.txt的基本用法,一个好的网站必定会有一个好的robots.txt,因为robots.txt是搜索引擎了解你网站的一 个途径。另外在这里我推荐一下一个比较适合wordpress用户使用的robots.txt写法:
[BR]  User-agent: *
[BR]  Disallow: /wp-
[BR]  Disallow: /feed/
[BR]  Disallow: /comments/feed
[BR]  Disallow: /trackback/
[BR]  Sitemap: http://rainjer.com/sitemap.xml
[BR] 
 
  支持(0) | 反对(0) 回到顶部顶端 回到底部底部
<上一主题 | 下一主题 >
Powered By KesionCMS Version X1
厦门科汛软件有限公司 © 2006-2016 页面执行0.05469秒 powered by KesionCMS 9.0