我robots.txt
在Google网站站长工具中显示以下值:
User-agent: * Allow: /
这是什么意思?我对此知之甚少,所以寻求你的帮助.我想允许所有机器人抓取我的网站,这是正确的配置吗?
该文件将允许所有抓取工具访问
User-agent: * Allow: /
这基本上允许所有用户代理(*)到站点的所有部分(/).
如果您想允许每个机器人抓取所有内容,这是在robots.txt中指定它的最佳方式:
User-agent: *
Disallow:
请注意,该Disallow
字段具有空值,这意味着根据规范:
任何空值表示可以检索所有URL.
你的方式(Allow: /
而不是Disallow:
)也有效,但Allow
不是原始robots.txt规范的一部分,所以它并不是所有机器人都支持(许多流行的机器人支持它,但是像Googlebot一样).也就是说,无法识别的字段必须被忽略,对于那些无法识别的机器人,Allow
在这种情况下结果将是相同的:如果禁止任何内容被抓取(with Disallow
),则允许对所有内容进行爬网.
但是,正式(根据原始规范)它是无效记录,因为至少Disallow
需要一个字段:
记录中至少需要有一个Disallow字段.
我知道这是一个相当古老的问题,并且有一些非常好的答案.但是,为了完整起见,这是我的两分钱.
根据官方文档,有四种方法,您可以允许机器人完全访问您的站点.
如@unor所述,指定带有disallow段的全局匹配器.所以你/robots.txt
看起来像这样.
User-agent: * Disallow:
创建一个/robots.txt
没有内容的文件.哪个默认允许所有类型的所有类型Bots
.
不要完全创造/robots.txt
.哪个应该产生与上述两个完全相同的结果.
从元标记的漫游器文档中,您可以在网站上的所有页面上使用以下元标记,以便Bots
知道这些页面不应被编入索引.
为了将此功能应用于整个网站,您必须为所有网页添加此元标记.此标记应严格放在HEAD
页面标记下.更多关于此元标记的信息.
这意味着您允许每个(*
)用户代理/爬网程序访问/
您站点的根().你还好.