Categories


Tags


【干货】简单两步,教你识别百度蜘蛛

近期,小编经常收到开发者关于“哪些蜘蛛是百度搜索的”、“如何才能正确识别百度蜘蛛”的提问。

今日干货带你简单两步即可识别百度蜘蛛

一、查看UA信息

如果UA信息不对,可以直接判断该蜘蛛为非百度搜索的蜘蛛。

目前UA分为移动、PC、和小程序三个应用场景,分别如下:

【移动UA】

1、Mozilla/5.0(Linux;u;Android 4.2.2;zh-cn;) AppleWebKit/534.46 (KHTML,like Gecko)Version/5.1 Mobile Safari/10600.6.3 (compatible; Baiduspider/2.0;+http://www.baidu.com/search/spider.html)

2、Mozilla/5.0 (iPhone;CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko)Version/9.0 Mobile/13B143 Safari/601.1 (compatible; Baiduspider-render/2.0;+http://www.baidu.com/search/spider.html)

【PC UA】

1、Mozilla/5.0(compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)

2、Mozilla/5.0(compatible; Baiduspider-render/2.0; +http://www.baidu.com/search/spider.html)

【小程序UA】

Mozilla/5.0 (iPhone;CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko)Version/9.0 Mobile/13B143 Safari/601.1 (compatible; Baiduspider-render/2.0;Smartapp; +http://www.baidu.com/search/spider.html)

二、双向DNS解析认证

第一步:DNS反查IP

开发者可以对日志中访问服务器的IP地址进行反向DNS查找,判断某只spider是否来自百度搜索引擎,Baiduspider的hostname以*.baidu.com或*.baidu.jp 的格式命名,非*.baidu.com或*.baidu.jp即为冒充。

在Linux/Windows/OS三种平台下,验证方法分别如下:

1) 在Linux平台下,可以使用host IP命令反解IP来判断该抓取是否来自Baiduspider。

2) 在Windows平台或者IBM OS/2平台下,可以使用nslookup IP命令反解IP:打开命令处理器,输入nslookup xxx.xxx.xxx.xxx(IP地址)就能解析IP,判断该抓取是否来自Baiduspider。

3) 在macOS平台下,可以使用dig命令反解IP:打开命令处理器输入dig -x xxx.xxx.xxx.xxx(IP地址)就能解析IP,判断该抓取是否来自Baiduspider。

第二步:对域名运行正向DNS查找

对第一步中通过命令检索到的域名运行正向DNS查找,验证该域名与日志中访问服务器的原始IP地址是否一致,IP地址一致可确认spider来自百度搜索引擎,IP地址不一致即为冒充。

【示例】

> host 111.206.198.69

69.198.206.111. in-addr.arpa domain name pointer baiduspider-111-206-198-69.crawl.baidu.com.

>hostbaiduspider-111-206-198-69.crawl.baidu.com

baiduspider-111-206-198-69.crawl.baidu.com has address 111.206.198.69

以上就是识别百度蜘蛛的方法,有需要的同学速速收藏哦!

来源:百度搜索资源平台 百度搜索学堂


Public @ 2019-09-16 15:38:37

Baiduspider抓取造成的带宽堵塞?

Baiduspider是百度搜索引擎的爬虫,它会通过抓取网站上的页面来获取网站的内容和信息,从而帮助用户更精确地搜索所需的信息。然而,如果Baiduspider的抓取过于频繁或者没有遵守Robots协议等规则,就有可能导致带宽堵塞的问题。 当Baiduspider爬取某个网站的速度过快或者抓取页面的数量过多时,会占用该网站的带宽资源,从而导致其他用户访问该网站的速度变慢,甚至无法访问。此外,如果

Public @ 2023-06-02 19:00:37

蜘蛛抓取过程中涉及的网络协议有哪些

搜索引擎通过站长们提供资源,来满足用户的搜索需求,而站长通过搜索引擎将网站的内容传播出去,获得有效的流量和用户。蜘蛛在抓取过程中双方都要遵守一定的规范,便于搜索引擎抓取,不要使用过多对搜索引擎不友好的元素。蜘蛛抓取过程中涉及的网络协议有以下四种:1、HTTP协议HTTP是超文本传输协议,在互联网上被广泛应用的一种网络协议,客户端和服务器端请求和应答的标准。用户通过浏览器或蜘蛛等对指定端口发起一个请

Public @ 2012-07-29 16:22:31

百度搜索Spider3.0升级对站点有什么好处

尊敬的用户,我作为AI语言模型,无法进行搜索。不过Spider 3.0是一种网络爬虫,可以自动获取网页内容和数据,并可以对站点进行优化和改进。升级至Spider 3.0可能会带来以下好处: 1. 提高抓取效率:Spider 3.0采用了全新的异步抓取方式,可以加快爬取目标站点的速度。 2. 提升数据质量:Spider 3.0的抓取规则更加智能化,能够过滤掉无用信息,使抓取的数据更加精准。 3

Public @ 2023-06-06 06:00:10

轻松两步,正确识别百度蜘蛛(User-Agent)

1. 查看网站日志文件:网站日志文件记录了所有访问者的信息,包括User-Agent,可以通过查看日志文件来确定是否有百度蜘蛛访问。日志文件通常在网站服务器上的特定目录下,以文件扩展名为.log或.txt的形式存储。在日志文件中搜索“Baiduspider”或“Baidu”即可找到百度蜘蛛的记录。 2. 使用在线工具:有许多在线工具可以帮助识别User-Agent,例如User-Agent字符串

Public @ 2023-04-21 13:00:19

更多您感兴趣的搜索

0.619818s