Categories


Tags


apache、iis6、ii7独立ip主机屏蔽拦截蜘蛛抓取(适用vps云主机服务器)

  apache、iis6、ii7独立ip主机屏蔽拦截蜘蛛抓取(适用vps云主机服务器)

整理自网络ChatGPT产生之内容,文本内容不具备参考意义,程序内容及代码片段有且仅有借鉴意义。

  在VPS云主机服务器上,可以通过以下方式屏蔽拦截蜘蛛抓取:

1. Apache服务器:

在Apache配置文件(httpd.conf或apache2.conf)中添加以下代码:

```
SetEnvIfNoCase User-Agent ".*((Googlebot)|(Baiduspider)|(Yahoo! Slurp)|(bingbot)|(YandexBot)).*" bad_bot

Order Allow,Deny
Allow from all
Deny from env=bad_bot
```

这段代码的作用是对于User-Agent中包含Googlebot、Baiduspider、Yahoo! Slurp、bingbot、YandexBot的蜘蛛,禁止访问网站内容。

2. IIS6服务器:

在IIS6中,可以通过ISAPI筛选器的方式进行屏蔽拦截。具体操作方法如下:

(1) 打开IIS管理器,选中要设置ISAPI筛选器的站点。

(2) 右键单击该站点,选择“属性”选项,在“本地站点”选项卡中找到“编辑属性”按钮。

(3) 在“ISAPI筛选器”选项卡中找到“添加”按钮,添加ISAPI筛选器“UrlScan”(或其他第三方筛选器)。

(4) 在“UrlScan.ini”(或其他筛选器的配置文件)中,添加以下代码:

```
[DenyHeaders]
User-Agent: Googlebot
User-Agent: Baiduspider
User-Agent: Yahoo! Slurp
User-Agent: bingbot
User-Agent: YandexBot
```

这段代码的作用是对于User-Agent中包含Googlebot、Baiduspider、Yahoo! Slurp、bingbot、YandexBot的蜘蛛,禁止访问网站内容。

3. IIS7服务器:

在IIS7中,可以通过动态IP限制功能进行屏蔽拦截。具体操作方法如下:

(1) 打开IIS管理器,选中要设置IP限制的站点。

(2) 在“配置”选项卡中找到“IP限制”功能,配置“动态IP限制”。

(3) 在“动态IP限制设置”中找到“添加/编辑限制”按钮,添加以下IP地址:

```
66.249.64.0/19
180.76.0.0/16
202.108.0.0/16
157.55.0.0/16
```

这些IP地址代表Googlebot、Baiduspider、Yahoo! Slurp、bingbot等蜘蛛的IP地址段,通过限制这些IP地址,可以禁止访问网站内容。

Public @ 2023-06-20 14:00:02 整理自网络ChatGPT产生之内容,文本内容不具备参考意义,程序内容有且仅有借鉴意义。

百度spider介绍

百度spider,简称Baidu Spider,是百度搜索引擎爬虫程序,主要用于收集互联网上的网页信息,以提供更好的搜索结果。Baidu Spider 负责从网页中抓取文字、图片、链接等信息,并将这些信息交给百度索引系统进行处理。Baidu Spider 会根据设置好的规则,定期抓取网页内容,以确保百度搜索引擎中有最新的信息。Baidu Spider 还能够支持对 AJAX、JS 等动态页面进行抓

Public @ 2023-06-13 04:50:12

如何查看网站被百度抓取的情况?

百度用于抓取网页的程序叫做Baiduspider - 百度蜘蛛,我们查看网站被百度抓取的情况主要是分析,网站日志里百度蜘蛛Baiduspider的活跃性:抓取频率,返回的HTTP状态码。如何查看网站被百度抓取的情况?查看日志的方式:通过FTP,在网站根目录找到一个日志文件,文件名一般包含log,下载解压里面的记事本,这即是网站的日志,记录了网站被访问和操作的情况。因为各个服务器和主机的情况不同,不

Public @ 2022-04-18 16:22:33

网站抓取了一些不存在的目录跟页面?

网站抓取了一些不存在的目录跟页面,本站倒是一个都不抓取是怎么回事?微信 悬赏网站抓取了一些不存在的目录跟页面,本站倒是一个都不抓取是怎么回事?要如何做才能让百度来抓取本站页面,一个多页了啥都没抓取,谜一样。。。以下抓取页面都不存在,另外网站例如新闻页面生成的文章在根目录是没有的,应该是动态的,这是否导致都不抓取了呢?回答:你确定蜘蛛是真的百度蜘蛛吗?99.99%的概率是假蜘蛛,不是真的!来源:A5

Public @ 2010-05-17 16:05:02

网站抓取了一些不存在的目录跟页面?

1. 重新编辑robots.txt文件,将网站中不需要抓取的页面和目录添加进去; 2. 如果抓取的网站带有反爬虫功能,建议可以设置User-Agent,以区分人为访问和爬虫程序进行访问; 3. 设置深度抓取,让程序对某个网页进行抓取时,只抓取它指定难度及深度的URL; 4. 不定时发起网站扫描任务,用来检查异常的URL,以及分析抓取URL的情况,同时将发现的问题处理掉; 5. 合理设置

Public @ 2023-02-24 22:36:31

更多您感兴趣的搜索

0.575362s