Robots.txt 生成器

在线生成标准的robots.txt文件,精确控制搜索引擎抓取权限

基础配置

限制目录设置

每个路径前需包含"/",如 /admin/、/api/、/tmp/

搜索引擎权限设置

所有搜索引擎

国内搜索引擎

百度
搜狗
360搜索
神马
字节跳动

国外搜索引擎

Google
Bing
Yahoo
Yandex
DuckDuckGo

AI搜索引擎

GPTBot (OpenAI)
ChatGPT-User
ClaudeBot
PerplexityBot
FacebookBot

Robots.txt 预览

使用说明

  1. 配置Sitemap地址和抓取延迟
  2. 添加需要限制的目录路径
  3. 设置各搜索引擎的抓取权限
  4. 点击生成按钮预览内容
  5. 复制或下载robots.txt文件

常见限制目录

常见问题

robots.txt放在哪里?

放在网站根目录下,通过 http://yoursite.com/robots.txt 可以访问。

Disallow和Allow的区别?

Disallow禁止访问,Allow允许访问。Allow优先级高于Disallow。

Crawl-delay有什么用?

控制爬虫访问间隔,减轻服务器压力。不是所有搜索引擎都支持。