robots.txt是什么

robots.txt基本介绍 robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。 当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt

robots.txt基本介绍 

robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。 

当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。 

另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。 

robots.txt写作语法 

首先,我们来看一个robots.txt范例:http://www.genban.org/robots.txt 

访问以上具体地址,我们可以看到robots.txt的具体内容如下: 

# Robots.txt file from http://www.genban.org
# All robots will spider the domain 

User-agent: * 
Disallow: 

以上文本表达的意思是允许所有的搜索机器人访问www.genban.org站点下的所有文件。 

具体语法分析:其中#后面文字为说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。 

下面,我将列举一些robots.txt的具体用法: 

允许所有的robot访问 

User-agent: * 
Disallow: 

或者也可以建一个空文件 “/robots.txt” file 

禁止所有搜索引擎访问网站的任何部分 

User-agent: * 
Disallow: / 

禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录) 

User-agent: * 
Disallow: /01/ 
Disallow: /02/ 
Disallow: /03/ 

禁止某个搜索引擎的访问(下例中的BadBot) 

User-agent: BadBot 
Disallow: / 

只允许某个搜索引擎的访问(下例中的Crawler) 

User-agent: Crawler 
Disallow: 

User-agent: * 
Disallow: / 

另外,我觉得有必要进行拓展说明,对robots meta进行一些介绍: 

Robots META标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots META标签也是放在页面的<head></head>中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。 

Robots META标签的写法: 

Robots META标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。 content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。 

INDEX 指令告诉搜索机器人抓取该页面; 

FOLLOW 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去; 

Robots Meta标签的缺省值是INDEX和FOLLOW,只有inktomi除外,对于它,缺省值是INDEX,NOFOLLOW。 

这样,一共有四种组合: 

<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”> 
<META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”> 
<META NAME=”ROBOTS” CONTENT=”INDEX,NOFOLLOW”> 
<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”> 

其中 

<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>可以写成<META NAME=”ROBOTS” CONTENT=”ALL”>; 

<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>可以写成<META NAME=”ROBOTS” CONTENT=”NONE”> 

目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于Robots META标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE还增加了一个指令“archive”,可以限制GOOGLE是否保留网页快照。例如: 

<META NAME=”googlebot” CONTENT=”index,follow,noarchive”>

本站部分内容来源互联网,如果有图片或者内容侵犯您的权益请联系我们删除!

相关文档推荐

最近新抢注了一个域名,到百度站长平台添加网站时候提示:该站点为低质站点,暂不可添加,请持续优化后,再行尝试。这种情况是啥问题? 经过一番查看,此域名没被QQ和微信标注为拦截,域名也没有被墙,但是翻看此域名建站历史记录发现之前被用二级域名泛解析
小编在百度站长平台添加网站时候,提示:你无权访问该页面,点击确定按钮返回首页,如下图所示: 小编觉得很奇怪,因为之前添加了十多个网站都没有问题,百度搜了一下,也有遇到过这种问题的朋友。很多朋友说是自己的账号问题,可是我这个账户是十几年的好老
网站优化如何运用事件舆论来做网络营销,今天跟版网小编来告诉你以下几点做事件关联起来做好文章,从而获得流量 1、要利用网络热门事件推广网站 首先要找到热门事件和重庆网站建设的关联性。我们怎么才能把自己的网站和热点事件进行联系呢?这是很多人想问的。
robots.txt写法大全和robots.txt语法的作用 1如果允许所有搜索引擎访问网站的所有部分的话 我们可以建立一个空白的文本文档,命名为robots.txt放在网站的根目录下即可。 robots.txt写法如下: User-agent: * Disallow: 或者 User-agent: * Allow: / 2如果我
百度搜索于近日推出飓风算法,旨在严厉打击以恶劣采集为内容主要来源的网站,同时百度搜索将从索引库中彻底清除恶劣采集链接,给优质原创内容提供更多展示机会,促进搜索生态良性发展。 飓风算法会例行产出惩罚数据,同时会根据情况随时调整迭代,体现了百度
最近想把一个网站改造成https访问,但是一些都做好了,去百度站长平台认证https,结果怎么提交都是出现请将您的http站点301重定向到https站点,在百度站长社区提问也没有人回答,最后只能自己摸索。后面找到了原因:原来百度的https认证是严格遵守301重定向