当前位置:  开发笔记 > 后端 > 正文

Robots.txt禁止所有内容,只允许网站/网页的特定部分.Ultraseek和FAST等爬虫是否支持"允许"?

如何解决《Robots.txt禁止所有内容,只允许网站/网页的特定部分.Ultraseek和FAST等爬虫是否支持"允许"?》经验,为你挑选了1个好方法。

只是想知道是否可以禁止整个网站的抓取工具,只允许特定的网页或部分?FAST和Ultraseek等爬虫是否支持"允许"?



1> Marc Novakow..:

有一个允许指令但是不能保证特定机器​​人会支持它(很像是不能保证机器人甚至会检查你的robots.txt开始).您可以通过检查您的博客来判断特定机器人是否只为您允许的网站部分编制索引.

仅允许网站的特定页面或部分的格式可能如下所示:

Allow: /public/section1/
Disallow: /

这(应该)阻止机器人抓取或索引除/ public/section1下的内容以外的任何内容

推荐阅读
路人甲
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有