Categories


Tags


巧用robots文件管理引导搜索引擎蜘蛛对网站的抓取

许多年前,让网站被搜索引擎选中包括填写表格,注册该网站,并手动编辑希望该网站被搜索的关键词,这个过程随着搜索引擎网络爬虫或网络蜘蛛的出现而改变。本文就robots相关内容,做详细的介绍。

什么是搜索引擎蜘蛛?

搜索引擎蜘蛛是一种自动程序,它沿着从一个网页到另一个网页的链接在互联网上爬行,为内容编制索引并将其添加到数据库中。这意味着,只要网站有一个来自其他网站且搜索引擎已经知道的链接,然后它会找到随着时间的推移。链接到站点越多,发生这种情况的速度就越快。

不幸的是,这些蜘蛛可以非常密集地访问网站。这是因为他们加载每个页面和文件,以便为数据库编目。蜘蛛会导致虚拟专用数据库负载过高,可能会给访问者带来问题。为了帮助解决这些负载问题,有一种标准化的方法来控制这些爬虫的行为,方法是将名为robots.txt的文件放在网站的根目录中。但是,没有任何强制遵守此文件的内容。所以,虽然大多数网络搜索引擎爬虫会服从它,但有些爬虫可能不会。

robots.txt文件有特定的形式,请看以下示例:

User-agent: googlebot

Disallow: /images

Allow: /images/metadata

crawl-delay: 2

sitemap: /sitemap.xml

按顺序查看每个指令行:

首先从“User-agent”(用户代理)行开始:机器人或网络浏览器将使用用户代理来标识自身,而各种搜索引擎爬虫将拥有自己的用户代理。遵循“User-agent”指令的任何其他指令将仅对给定的用户代理有效。带星号(*)的用户代理将被视为引用所有用户代理。在示例文件中,该指令与googlebot搜索引擎蜘蛛程序相关。

“Disallow”(禁止)指令用于告诉搜索引擎蜘蛛程序有关不加载的目录或文件。需要注意的是,尽管搜索引擎蜘蛛不会加载文件,如果它跟踪到它们的链接,它仍然会在搜索结果中列出这些文件。因此,它不能用来阻止页面出现在搜索结果中。“Disallow”可能是所有搜索引擎蜘蛛都支持的唯一指令。因此在示例中,不允许爬行/images目录。

“Allow”(允许)指令可用于指定搜索引擎蜘蛛可以加载的禁止目录中的文件或目录。虽然并不是所有的搜索引擎蜘蛛都支持这个指令,但大多数蜘蛛都支持。在示例中,允许蜘蛛加载 /images/metadata目录中的文件。

下一个指令是“crawl-delay”(爬行延迟),惠州网站建设它以秒为单位给出蜘蛛在加载下一页之前将等待的数字。这是降低蜘蛛速度的最好方法,尽管可能不想让数字太高,除非站点上只有很少的页面,因为这将极大地限制蜘蛛每天可以加载的页面数量。

最后,是“sitemap”(网站地图)指令,可以将蜘蛛引导到网站的XML网站地图文件,它也可以用来帮助网站进行索引。

控制搜索引擎蜘蛛

在robots.txt中可以填充尽可能多或很少的用户代理,以控制访问站点的方式。对于所有蜘蛛来说,从一个用户代理区开始,然后为特定的蜘蛛添加单独的部分是有意义的,因为它们可能会给站点带来问题。创建了robots.txt之后,就需要对它进行测试,以确保它是有效的。如果语法中出现输入错误或拼写错误,则可能会导致蜘蛛忽略正在设置的规则。幸运的是,有很多测试它的工具,还有一些主要的搜索引擎,比如谷歌提供的测试工具。(来源:夫唯seo特训营)


Public @ 2017-11-23 16:09:28

什么是移动Sitemap协议,如何提交移动Sitemap协议

移动Sitemap协议是一种用于向搜索引擎提交移动网站页面信息的协议。它类似于普通的Sitemap协议,但是专门针对移动网站页面优化而设计。 可以通过以下步骤来提交移动Sitemap协议: 1、创建移动Sitemap文件:根据搜索引擎要求,创建包含移动网站页面信息的Sitemap文件。 2、将Sitemap文件上传到网站服务器中。 3、将Sitemap文件的URL提交给搜索引擎:访问搜索引

Public @ 2023-06-02 08:50:11

能否利用canonical标签陷害竞争对手?

今天再介绍一个黑帽负面SEO的想法:利用canonical标签陷害竞争对手。聊黑帽SEO绝不是建议读者做黑帽,优化正规网站的还是尽量别尝试,风险很大。但了解黑帽SEO方法,一是开拓思路,第二更重要的是,防范别人用负面SEO方法陷害自己。站长们认真观察的话一定会发现,负面SEO的尝试是一直在发生的。我这个小小的、谁也不得罪的SEO博客都经常被人制造巨量垃圾链接、制造大量敏感词搜索页面、刷跳出率等等,

Public @ 2019-01-30 16:11:18

搜索问答剧场【七】“robots文件”常见问题解析

哈喽大家好!【搜索问答剧场】最新一集如期而至,平小雕又带着满满的知识干货回来啦!准备好迎接知识的洗礼了嘛?第五集【搜索问答剧场】中,跟大家提到了【Robots】工具。本期就来详细教大家如何灵活地使用【Robots】工具,以及如何正确设置网站整体的抓取范围。一、了解robots文件1、Q:什么是robots文件?A:robots文件用于指定spider在网站上的抓取范围,在文件中可以声明网站中不想被

Public @ 2015-05-15 15:16:25

robot.txt在SEO中的作用

Robots.txt 是一个网站管理员可通过在站点根目录中放置一个名为robots.txt的文件来让搜索引擎(及其爬虫)知道该如何来收录并处理某些目录或页面,并使索引过程更加有效更加规范。 Robots.txt 的作用是向搜索引擎解释网站中哪些目录和文件希望被搜索引擎收录、哪些不希望收录,以避免搜索引擎抓取到网站误差的内容。如果 robots.txt 被恰当地设置,可以有效提高收录质量和网站

Public @ 2023-03-03 03:00:14

更多您感兴趣的搜索

0.563909s