网站SEO最常用的 robots.txt使用教程

网站SEO最常用的 robots.txt使用教程

3、用robots.txt屏蔽死链

  死链就是曾经存在的网页,因为改版或其他原因而失去效用后就变成死链,也就是说看似一个正常的网页链接,但点击后不能打开相对应的网页页面。

  比如,原来在目录为/seo下的所有链接,因为目录地址的改变,现在都变成死链接了,那么我们可以用robots.txt把他屏蔽掉,代码如下:

  Disallow: /seo/

  4、告诉搜索引擎你的sitemap.xml地址

  利用robots.txt可以告诉搜索引擎你sitemap.xml文件的地址,而不需要在网站上添加sitemap.xml的链接。具体代码如下:

  Sitemap: 你的sitemap地址

  以上就是robots.txt的基本用法,一个好的网站必定会有一个好的robots.txt,因为robots.txt是搜索引擎了解你网站的一 个途径。另外在这里我推荐一下一个比较适合WordPress用户使用的robots.txt写法:

  User-agent: *

  Disallow: /wp-

  Disallow: /feed/

  Disallow: /comments/feed

  Disallow: /trackback/

  Sitemap: http://你的域名.com/sitemap.xml

  最后,如果你觉得上面所说的还不能满足你的需要,那么你可以在谷歌百度官方提供的robots.txt使用指南学习:

  百度:http://www.baidu.com/search/robots.html

  谷歌http://www.google.com/support/forum/p/webmasters/thread?tid=4dbbe5f3cd2f6a13&hl=zh-CN

后记:说来惭愧,我第一次接触robots.txt是因为帮老白他们写关于WEB安全的书要用到robots.txt
robots.txt这东西确实不错,但从安全的角度来说很多时候会“此地无银三百两”,有人把网站后台藏得很好,可是还是被黑,后来查了原因,发现是robots.txt把自己出卖了,因为后台的地址赤裸裸地显示在那里呢!