Robots协议

42次阅读

共计 646 个字符,预计需要花费 2 分钟才能阅读完成。

好的网络爬虫,首先需要遵守 Robots 协议。Robots 协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过 Robots 协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。在网站根目录下放一个 robots.txt 文本文件(如 https://www.taobao.com/robots…),里面可以指定不同的网络爬虫能访问的页面和禁止访问的页面,指定的页面由正则表达式表示。网络爬虫在采集这个网站之前,首先获取到这个 robots.txt 文本文件,然后解析到其中的规则,然后根据规则来采集网站的数据。

1. Robots 协议规则
注意: 一个英文要大写,冒号是英文状态下,冒号后面有一个空格,”/” 代表整个网站
2. Robots 协议举例
禁止所有机器人访问
User-agent: *
Disallow: /
允许所有机器人访问
User-agent: *
Disallow:
禁止特定机器人访问
User-agent: BadBot
Disallow: /
允许特定机器人访问
User-agent: GoodBot
Disallow:
禁止访问特定目录
User-agent: *
Disallow: /images/
仅允许访问特定目录
User-agent: *
Allow: /images/
Disallow: /
禁止访问特定文件
User-agent: *
Disallow: /*.html$
仅允许访问特定文件
User-agent: *
Allow: /*.html$
Disallow: /

正文完
 0