Categories


Tags


轻松两步,教你快速识别百度蜘蛛(User-Agent)

经常听到开发者问,百度蜘蛛是什么?最近百度蜘蛛来的太频繁服务器抓爆了!最近百度蜘蛛都不来了怎么办?还有很多站点想得到百度蜘蛛的IP段,想把IP加入白名单,但IP地址范围动态变化不固定,我们无法对外公布。

那么如何才能识别正确的百度蜘蛛呢?今日干货带你轻松两步正确识别百度蜘蛛:

一、查看UA信息

如果UA信息不对,可以直接判断为非百度搜索的蜘蛛。目前UA分为移动、PC、和小程序三个应用场景,这三个渠道UA分别如下:

移动UA:

Mozilla/5.0 (Linux;u;Android 4.2.2;zh-cn;) AppleWebKit/534.46 (KHTML,like Gecko)Version/5.1 Mobile Safari/10600.6.3 (compatible; Baiduspider/2.0;+http://www.baidu.com/search/spider.html)

Mozilla/5.0 (iPhone;CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko)Version/9.0 Mobile/13B143 Safari/601.1 (compatible; Baiduspider-render/2.0;+http://www.baidu.com/search/spider.html)

PC UA:

Mozilla/5.0 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)

Mozilla/5.0 (compatible; Baiduspider-render/2.0; +http://www.baidu.com/search/spider.html)

小程序UA:

Mozilla/5.0 (iPhone;CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko)Version/9.0 Mobile/13B143 Safari/601.1 (compatible; Baiduspider-render/2.0;Smartapp; +http://www.baidu.com/search/spider.html)

二、双向DNS解析认证

第一步:DNS反查IP

开发者通过对日志中访问服务器的IP地址运行反向DNS查找,判断某只spider是否来自百度搜索引擎,Baiduspider的hostname以*.baidu.com或*.baidu.jp 的格式命名,非*.baidu.com或*.baidu.jp即为冒充。

根据平台不同验证方法不同,如linux/windows/os三种平台下的验证方法分别如下:

1).在linux平台下,您可以使用host ip命令反解ip来判断是否来自Baiduspider的抓取。

2).在windows平台或者IBM OS/2平台下,您可以使用nslookup ip命令反解ip来 判断是否来自Baiduspider的抓取。打开命令处理器 输入nslookup xxx.xxx.xxx.xxx(IP地址)就能解析ip,来判断是否来自Baiduspider的抓取。

3).在macos平台下,您可以使用dig命令反解ip来判断是否来自Baiduspider的抓取。打开命令处理器输入dig -x xxx.xxx.xxx.xxx(IP地址)就能解析ip,来判断是否来自Baiduspider的抓取。

第二步:对域名运行正向DNS查找

对第一步中通过命令检索到的域名运行正向DNS查找,验证该域名与您日志中访问服务器的原始IP地址是否一致,IP地址一致可确认spider来自百度搜索引擎,IP地址不一致即为冒充。

示例1:

> host 111.206.198.69

69.198.206.111. in-addr.arpa domain name pointer baiduspider-111-206-198-69.crawl.baidu.com.

> host baiduspider-111-206-198-69.crawl.baidu.com

baiduspider-111-206-198-69.crawl.baidu.com has address 111.206.198.69

来源:百度搜索资源平台 百度搜索学堂


Public @ 2020-10-17 15:38:38

apache、iis6、ii7独立ip主机屏蔽拦截蜘蛛抓取(适用vps云主机服务器)

针对apache、iis6、iis7独立ip主机屏蔽拦截蜘蛛抓取的方法如下: 1. 在网站根目录下新建一个robots.txt文件,添加以下代码: User-agent: * Disallow: / 这样可以禁止所有蜘蛛抓取你的网站。 2. 在服务器端安装mod_security模块并配置,可以使用以下命令: sudo apt-get install libapache-mod-secu

Public @ 2023-03-30 01:00:40

我不想我的网站被Baiduspider访问,我该怎么做?

作为AI,我不建议您屏蔽搜索引擎的爬虫。搜索引擎对网站的排名和访问量有重要作用,如果您屏蔽了搜索引擎的爬虫,可能会影响您网站的访问量和曝光率。如果您有特殊的需求,可以在网站的robots.txt文件中加入禁止搜索引擎爬取的指令,但请确保您知道这样做会对您的网站产生什么样的影响。

Public @ 2023-04-12 03:50:21

【官方说法】百度蜘蛛抓取流量暴增的原因

百度官方表示,造成蜘蛛抓取流量暴增的原因主要有以下几个方面: 1. 站点更新频繁:如果站点内容更新频繁,蜘蛛会更加积极地抓取页面,从而带来流量的上涨。 2. 站点质量提高:如果站点内容质量得到提高,搜索引擎会更加青睐,从而增加蜘蛛的抓取频率,进而带来流量的上涨。 3. 站点结构优化:如果站点结构调整得当,蜘蛛能够更好地抓取页面,从而提高流量。 4. 站点权重提高:如果站点的权重得到提高,蜘

Public @ 2023-06-12 09:50:20

更多您感兴趣的搜索

0.400526s