时间:2016-05-09 点击: 次 来源:网络 作者:佚名 - 小 + 大
robots.txt是什么: robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。 当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。 另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。 什么情况下可以修改: 当你在程序中新增加文件夹的时候,而且该文件夹不想被搜索引擎抓取时,就可以修改了,使用记事本打开,然后在最下面添加Disallow: /文件夹名称/即可。 一般情况下我们个人网站考虑不让搜索引擎抓取是出于保护隐私、增加安全性、做搜索引擎优化而进行的,按照这样的思路,哪些文件夹设置为拒绝抓取就一目了然了 |