Categories


Tags


Chrome浏览器模拟百度蜘蛛访问

某些网站可能针对搜索引擎挂马(百度/360/搜狗等),Chrome浏览器可以安装User-Agent Switcher for Chrome模拟百度蜘蛛来访问网页,如果是针对搜索引擎挂马的就会显示。

下载蜘蛛模拟软件,模拟蜘蛛访问查看非法信息。

准备工作

已经安装Google Chrome浏览器

安装扩展

访问 User-AgentSwitcher_1_0_43.crx 并下载这个扩展

按照下图打开Chrome浏览器 - 扩展程序

设置百度蜘蛛

安装完成在扩展程序页面可以看到User-Agent Switcher for Chrome点选项

按照如下截图添加百度蜘蛛(蓝色的文字部分)

New User-agent name:baidu

New User-Agent String:Mozilla/5.0 (compatible;Baiduspider-render/2.0; +http://www.baidu.com/search/spider.html;soso;360;sogou)

Group:spider

Append?:Repalce

Indicator Flag:1

测试

安装扩展后Chrome浏览器右上角多出一个小眼睛,点击小眼睛 - spider - baidu,这样就可以模拟百度蜘蛛访问了。

比如访问一个针对搜索引擎挂马的网页:http://www.zttoten.com/index.php?rmlbgh=cbfmcm&westauditpageinfo=1 [这个地址可能会会失效],这样就可以看到被挂马的情况。(默认情况下访问这个地址可能会跳转到网站首页。)

注意事项

如果之前已经用正常模式访问过非法信息网页,再模拟百度蜘蛛的时候可能会失效,清除下浏览器缓存(cookie),然后重新选择百度蜘蛛访问非法信息页面测试。

此方法仅针对搜索引擎挂马有效,其它挂马类型并不适用。

来源:西部数码


Public @ 2019-10-16 16:22:26

BaiDuSpider百度蜘蛛占用流量,robots.txt设置

BaiDuSpider是百度搜索引擎自动抓取网页的蜘蛛程序。由于蜘蛛程序需要不断访问网站上的页面,所以会占用一定的流量资源。对于网站管理员来说,如果BaiDuSpider的访问量过大,也会对网站的带宽和性能造成一定的负担。 为了避免BaiDuSpider的过度访问,网站管理员可以通过在网站根目录下创建robots.txt文件,来控制搜索引擎蜘蛛的访问。通过设置robots.txt文件,可以告诉B

Public @ 2023-03-31 08:00:24

蜘蛛抓取有好多动态链接是否有影响?要怎么处理?

我的网站显示的蜘蛛抓取,有好多动态链接是否有影响?是否需要处理。该如何处理?11-29.123.如果不是自己网站本身实际存在的url,很可能是网站由于被人刷,导致的。对应这些动态链接,可以在robots文件中,写一个屏蔽抓取动态链接的语法。User-agent: *Disallow: /*?*更详细的robots设置方法,可以看下面链接课程https://ke.seowhy.com/play/94

Public @ 2019-09-11 16:09:25

什么是模拟蜘蛛抓取

站长可以输入自己网站上的任何一个网址,网管工具会发出Google蜘蛛,实时抓取页面内容,并显示出抓取的HTML代码,包括服务器头信息和页面代码。另外工具也可以用来检查页面是否被黑。有时候黑客放入的代码会检查浏览器类型,如果是用户使用普通浏览器访问则返回正常内容,如果是搜索引擎蜘蛛访问,才返回黑客加上去的垃圾内容和垃圾链接。所以站长自己访问网站看不出异样,Google蜘蛛抓取到的却不是站长自己看到的

Public @ 2011-01-25 16:22:34

更多您感兴趣的搜索