网站robots协议的用法

2026-05-09

什么是robots协议? robots协议,指的是一个robots.txt的文档,如下图。Robots.txt是存放在网站更目录的一个文件。而且是搜索引擎爬虫抓取网站的时候,第一个抓取的文件。 robots协议,又叫做搜索引擎协议,主要用于规范爬虫抓取网页。robots协议里面记录着规则,爬虫爬取后会按照规则爬取网站。 简单的理解,robots协议里面会告诉搜索引擎爬虫,那些链接是允许爬取的,那些链接是不允许抓取的。 robots协议作用 robots协议可以指定搜索引擎能收录那些链接...

阅读更多