在本博客中,我们将学习一些技巧,以了解如何通过优化 robts.txt 文件来提高网站的 SEO。
实际上,Robots.txt 文件在 SEO 方面起着重要作用,因为它告诉搜索引擎如何抓取您的网站。 这就是为什么 Robot.txt 文件被认为是最强大的 SEO 工具之一的原因。
稍后,您还将了解如何构建和 优化 WordPress Robots.txt 用于搜索引擎优化。
robots.txt 文件是什么意思?
网站所有者创建的用于告诉搜索引擎机器人如何在其网站上爬行并为页面编制索引的文本文件称为 Robots.txt
实际上,在根目录中,存储了该文件。 此目录也称为您网站的主文件夹。 下面提到的是robots.txt文件的文件格式
User-agent: [user-agent name]
Disallow: [URL string not to be crawled]
User-agent: [user-agent name]
Allow: [URL string to be crawled]
Sitemap: [URL of your XML Sitemap]
要允许或禁止特定 URL,您可以使用不同的指令行。 另外,您也可以添加不同的站点地图。 如果允许 URL,搜索引擎机器人将认为它们被允许抓取页面。
下面给出了 robots.txt 的示例
User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /wp-admin/
Sitemap: https://example.com/sitemap_index.xml
在上面给出的示例中,我们允许搜索引擎抓取页面并将其索引文件放在 WordPress 上传的文件夹中。
在此之后,我们不再允许搜索机器人抓取 WordPress 管理文件夹和插件并将其编入索引。
最后,我们提到了 XML 站点地图的 URL。
对于您的 WordPress 网站,您是否需要 Robots.txt 文件?
即使您没有文本文件(即 Robots.txt),搜索引擎也会开始抓取您的页面并将其编入索引。 但不幸的是,您无法通知您的搜索引擎它应该抓取哪个特定文件夹或页面。
如果您刚刚创建了一个内容较少的网站或博客,它将不会获利或不会产生任何影响。
但是,一旦您设置了包含大量内容的网站并且当它开始增长时,您将需要控制网站的已爬网和索引页面。
下面给出第一个原因
对于每个网站,搜索机器人都有一个抓取配额。
这显然意味着在抓取会话期间,它将抓取特定数量的页面。 假设您网站上的抓取仍然不完整,那么它将再次返回并在另一个会话中恢复抓取。
因此,您网站的网站索引率将是一场摊牌。
您可以通过不允许搜索机器人不抓取此类不必要的页面来解决此问题。 一些不重要的页面可能包括插件文件、WordPress 管理页面和主题文件夹。
可以通过不允许抓取不需要的页面来节省抓取配额。 这一步会更有帮助,因为搜索引擎现在将抓取网站的页面并能够尽快将它们编入索引。
下面给出了为什么您应该使用和优化 WordPress Robots.txt 文件的另一个原因
每当您需要阻止搜索引擎索引您网站上的页面或帖子时,您都可以使用此文件。
实际上,这是向公众覆盖您的网站内容的最不恰当的方式之一,但它将被证明是保护它们出现在搜索结果中的最佳支持。
Robots.txt 文件如何出现?
大多数流行的博客都使用一个非常简单的 robots.txt 文件。 与特定网站的要求相比,内容可能有所不同。
User-agent: *
Disallow:
Sitemap: http://www.example.com/post-sitemap.xml
Sitemap: http://www.example.com/page-sitemap.xml
All bots will be permitted by robots.txt file to index every content and offer links to the XML sitemap's website.
Following rules is mentioned that needs to follow in robots.txt files
User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /wp-admin/
Disallow: /readme.html
Disallow: /refer/
Sitemap: http://www.example.com/post-sitemap.xml
Sitemap: http://www.example.com/page-sitemap.xml
这将指示机器人为所有 WordPress 文件和图像编制索引。 这将不允许搜索机器人索引 WordPress 管理区域、WordPress 插件文件、附属链接和 WordPress 自述文件。
在 robots.txt 文件中,您可以添加站点地图,以帮助 Google 漫游器识别您网站上的所有页面。
现在您已经了解了 robots.txt 文件的样子,现在我们将了解如何在 WordPress 中创建 robots.txt 文件。
在WordPress中,如何建立robots.txt文件?
要在 WordPress 中创建 robots.txt 文件,有很多方法。 下面列出了一些顶级方法,您可以选择其中任何一种最适合您。
方法一:使用多合一搜索引擎优化,修改Robots.txt文件
多合一 SEO 是市场上最著名的 WordPress SEO 插件,已被超过 100 万个网站使用。
多合一 SEO 插件使用起来非常简单,因此它提供了robotx.txt 文件生成器。 优化WordPress Robots.txt也很有帮助
如果您尚未集成此 SEO 插件,请先从 WordPress 仪表板安装并激活它。 免费版本也适用于初学者用户,以便他们无需投资即可使用其功能。
激活插件后,您可以开始使用它直接从 WordPress 管理区域构建或修改 robots.txt 文件。
使用它
- 转到多合一搜索引擎优化
- 现在要编辑 robots.txt 文件,请单击工具
- 现在点击“启用自定义robots.txt”,您将打开编辑选项
- 在 WordPress 中,您还可以使用此开关构建自定义 robots.txt 文件。
- 现在,您现有的 robots.txt 文件将通过“robots.txt 预览”部分中的“多合一 SEO 插件”显示。 这可以在您的网页屏幕底部查看。
通过 WordPress,此版本将显示添加的默认规则
获得的默认规则似乎向您的搜索引擎建议他们不需要抓取核心 WordPress 文件,提供指向 XML 站点地图网站的链接,并允许机器人对其所有内容进行索引。
为了增强您的 robots.txt 以进行 SEO,可以添加新的自定义规则。
在“用户代理”字段中添加用户代理,以添加规则。 该规则将通过使用 * 应用于所有用户代理。
现在选择是否允许搜索引擎抓取页面。
现在添加目录路径,“目录路径”字段中的文件名。
对于您的 robots.txt,规则将自动应用。 单击“添加规则”按钮以添加新规则。
除非您创建理想的 robots.txt 格式,否则我们建议您添加新规则。
您添加的自定义规则将如下所示
要存储您的更改不要错过单击“保存更改”
方法二:通过FTP手动修改Robots.txt文件
另一个优化WordPress Robots.txt的方法是利用FTP客户端的特性开始修改robots.txt文件
您只需要在 FTP 客户端的帮助下连接到您的 WordPress 主机帐户
登录后,在网站的根文件夹中,您将可以查看robots.txt 文件。
如果您找不到它,则表示您没有 robots.txt 文件
在这种情况下,您需要创建 robots.txt 文件。
如前所述,robots.txt 文件通常是一个简单的文本文件,可以下载到您的计算机上。 但是,您甚至可以借助纯文本编辑器(例如 TextEdit、Notepad 或 WordPad)对其进行修改。
一旦您执行了所有更改,现在就该保存它了。 您可以将此文件上传到您网站的根文件夹。
如何对 Robots.txt 文件执行测试?
您可以在 robots.txt 测试工具的帮助下进行测试。
在网络上,你会发现很多 robots.txt 测试工具。 最好的之一是 Google Search Console。
要使用此工具,您首先需要有一个与 Google 搜索控制台相连的网站。 在此之后,您可以开始使用其功能。
从下拉列表中,您只需要选择您的财产。
但是,它会自动选择您网站的 robots.txt 文件,并突出显示所有警告和错误。 这是帮助您非常轻松地优化 WordPress Robots.txt 文件的最佳工具之一。
结论:
优化此 robots.txt 文件的主要座右铭是保护页面免于抓取页面。 例如 WordPress admin 文件夹中的页面或 wp-plugin 文件夹中的页面。
最常见的误解是,您可以通过屏蔽 WordPress 类别、实现页面和标签来提高抓取速度并使其索引更快并获得更高的排名。
但这不会起作用,因为根据 Google 的网站管理员指南,它会出错。
我们强烈建议您阅读并考虑上述所有要点。
我们希望此博客能帮助您使用适合您网站的正确格式创建 robots.txt 文件。 它将帮助您优化 WordPress Robots.txt。