Categories


Tags


导致搜索引擎蜘蛛不能顺利爬行的因素

一、服务器连接异常

服务器连接异常会有两种情况,一种是站点不稳定,搜索引擎尝试连接您的网站的服务器时出现暂时无法连接的情况;另一种是搜索引擎一直无法连接上您网站的服务器。造成服务器连接异常的原因通常是您的网站服务器过大,超负荷运转。也有能是您的网站运行不正常,请检查网站的web服务器(如Apache、IIS)是否安装且正常运行,并使用浏览器检查主要页面能否正常访问。您的网站和主机还可能阻止了蜘蛛的访问,您需要检查网站和主机的防火墙。

二、网络运营商异常

网络运营商分电信和联通两种,搜索引擎通过电信或网通无法访问您的网站。如果出现这种情况,您需要与网络服务运营商进行联系,或者购买拥有双线服务的空间或者购买cdn服务。

三、DNS异常

当搜索引擎无法解析您网站的IP时,会出现DNS异常。可能是您的网站IP地址错误,或者域名服务商把搜索引擎封禁,请使用WHOIS或者host查询自己的网站IP地址是否正确且可解析,如果不正确或无法解析,请与域名注册商联系,更新您的IP地址。

四、IP封禁

IP封禁为:限制网络的出口IP地址,禁止该IP段的使用者进行内容访问,在这里特指封禁了搜索引擎IP。当你的网站不希望蜘蛛访问时,才需要该设置。如果您希望搜索引擎蜘蛛访问您的网站,请检查相关设置中是否误添加了搜索引擎蜘蛛ip。也有可能是您网站所在的空间服务商把IP进行了封禁,这是您需要联系服务商更改设置。

五、UA封禁

UA即为用户代理(User-Agent),服务器通过UA识别访问者的身份。当网站针对指定UA的访问,出现返回异常页面(如402、500)或跳转到其他页面的情况,即为UA封禁。当您网站不希望搜索引擎蜘蛛访问时,才需要该设置;如果您希望搜索引擎蜘蛛访问您的网站,查看useragent的相关设置中是否有搜索引擎蜘蛛UA,予以修改。

六、死链

页面已经无效,无法对用户提供任何有价值信息的页面就是死链接,包括协议死链和内容死链两种形式。协议死链,即页面的TCP协议状态/HTTP协议状态明确表示死链,常见的如404、402、502状态等;内容死链,即服务器返回状态是正常的,但内容已经变更为不存在、已删除或需要权限等与原内容无关的信息页面的死链。对于死链,小编建议站点使用协议死链,并通过百度站长平台——死链工具向百度提交,一边百度更快地发现死链,减少死链对用户以及搜索引擎造成的页面影响。

七、异常跳转

将网络请求重新指向其它位置即为跳转,异常跳转指的是以下几种情况。

1、当前该页面为无效页面(内容已删除、死链),直接跳转到前一目录或者首页。四叶草SEO小编建议站长将该无效页面的入口超链接删除掉。

2、跳转到出错或者无效页面。

八、其它异常

1、针对百度refer的异常:网页针对来自百度refer返回不同于正常内容的行为。

2、针对百度UA的异常:网页对百度UA返回不同于页面原内容的行为。

3、JS跳转异常:网页加载了搜索引擎无法识别的JS跳转代码,使得用户通过搜索结果进入页面后发生了跳转的情况。

4、压力过大引起的偶然封禁:搜索引擎会根据站点的规模、访问量等信息,自动设定一个合理的抓取压力。但是在异常情况下,如压力控制时长时,服务器会根据自身负荷进行保护性的偶然封禁。这种情况下,请在返回码502,这样搜索引擎蜘蛛会过段时间再来尝试抓取这个链接。如果网站已空闲,则会被成功抓取。


Public @ 2013-04-30 16:22:37

【官方说法】只需两步,正确识别百度蜘蛛(User-Agent)

经常听到开发者问,百度蜘蛛是什么?最近百度蜘蛛来的太频繁服务器抓爆了!最近百度蜘蛛都不来了怎么办?还有很多站点想得到百度蜘蛛的IP段,想把IP加入白名单,但IP地址范围动态变化不固定,我们无法对外公布。那么如何才能识别正确的百度蜘蛛呢?今日干货带你轻松两步正确识别百度蜘蛛:一、查看UA信息如果UA信息不对,可以直接判断为非百度搜索的蜘蛛。目前UA分为移动、PC、和小程序三个应用场景,这三个渠道UA

Public @ 2014-05-26 15:38:36

遇Baiduspider抓取,反馈时间多久合适

进入移动时代,同学们肯定会发现,百度官方和各知名SEO大拿们都在不断强调一个词:速度!最重要的莫过于,从用户点击搜索结果到页面完全加载完毕,不可超过3秒,否则有可能被限制展现(因为百度做过测试,当页面在3秒以上还无法打开的话,用户会选择关闭该网页)。于是大家各种针对速度的问题也多了起来,在深圳VIP大讲堂中,我们看到了这样一个简单的对话:同学问:站点遇到百度蜘蛛抓取,应该在多长时间内给出反馈?时间

Public @ 2015-11-08 15:38:40

网站抓取了一些不存在的目录跟页面?

网站管理者可以使用301重定向来解决这个问题,该技术会将搜索结果重定向到有效的页面,从而避免访问不存在的页面,提高网站的加载速度。此外,网站管理者可以使用网络爬虫进行定期的审查,以发现不存在的目录和页面,以及确保符合标准的内容。

Public @ 2023-02-24 11:00:15

如何和搜索引擎爬虫对话

抓取策略:那些网页是我们需要去下载的,那些是无需下载的,那些网页是我们优先下载的,定义清楚之后,能节省很多无谓的爬取。更新策略:监控列表页来发现新的页面;定期check 页面是否过期等等。抽取策略:我们应该如何的从网页中抽取我们想要的内容,不仅仅包含最终的目标内容,还有下一步要抓取的url.抓取频率:我们需要合理的去下载一个网站,却又不失效率。让我对“如何和爬虫对话 ”这个课题有了一些思考,下面归

Public @ 2017-01-01 16:22:28

更多您感兴趣的搜索

0.405000s