Categories


Tags


导致搜索引擎蜘蛛不能顺利爬行的因素

一、服务器连接异常

服务器连接异常会有两种情况,一种是站点不稳定,搜索引擎尝试连接您的网站的服务器时出现暂时无法连接的情况;另一种是搜索引擎一直无法连接上您网站的服务器。造成服务器连接异常的原因通常是您的网站服务器过大,超负荷运转。也有能是您的网站运行不正常,请检查网站的web服务器(如Apache、IIS)是否安装且正常运行,并使用浏览器检查主要页面能否正常访问。您的网站和主机还可能阻止了蜘蛛的访问,您需要检查网站和主机的防火墙。

二、网络运营商异常

网络运营商分电信和联通两种,搜索引擎通过电信或网通无法访问您的网站。如果出现这种情况,您需要与网络服务运营商进行联系,或者购买拥有双线服务的空间或者购买cdn服务。

三、DNS异常

当搜索引擎无法解析您网站的IP时,会出现DNS异常。可能是您的网站IP地址错误,或者域名服务商把搜索引擎封禁,请使用WHOIS或者host查询自己的网站IP地址是否正确且可解析,如果不正确或无法解析,请与域名注册商联系,更新您的IP地址。

四、IP封禁

IP封禁为:限制网络的出口IP地址,禁止该IP段的使用者进行内容访问,在这里特指封禁了搜索引擎IP。当你的网站不希望蜘蛛访问时,才需要该设置。如果您希望搜索引擎蜘蛛访问您的网站,请检查相关设置中是否误添加了搜索引擎蜘蛛ip。也有可能是您网站所在的空间服务商把IP进行了封禁,这是您需要联系服务商更改设置。

五、UA封禁

UA即为用户代理(User-Agent),服务器通过UA识别访问者的身份。当网站针对指定UA的访问,出现返回异常页面(如402、500)或跳转到其他页面的情况,即为UA封禁。当您网站不希望搜索引擎蜘蛛访问时,才需要该设置;如果您希望搜索引擎蜘蛛访问您的网站,查看useragent的相关设置中是否有搜索引擎蜘蛛UA,予以修改。

六、死链

页面已经无效,无法对用户提供任何有价值信息的页面就是死链接,包括协议死链和内容死链两种形式。协议死链,即页面的TCP协议状态/HTTP协议状态明确表示死链,常见的如404、402、502状态等;内容死链,即服务器返回状态是正常的,但内容已经变更为不存在、已删除或需要权限等与原内容无关的信息页面的死链。对于死链,小编建议站点使用协议死链,并通过百度站长平台——死链工具向百度提交,一边百度更快地发现死链,减少死链对用户以及搜索引擎造成的页面影响。

七、异常跳转

将网络请求重新指向其它位置即为跳转,异常跳转指的是以下几种情况。

1、当前该页面为无效页面(内容已删除、死链),直接跳转到前一目录或者首页。四叶草SEO小编建议站长将该无效页面的入口超链接删除掉。

2、跳转到出错或者无效页面。

八、其它异常

1、针对百度refer的异常:网页针对来自百度refer返回不同于正常内容的行为。

2、针对百度UA的异常:网页对百度UA返回不同于页面原内容的行为。

3、JS跳转异常:网页加载了搜索引擎无法识别的JS跳转代码,使得用户通过搜索结果进入页面后发生了跳转的情况。

4、压力过大引起的偶然封禁:搜索引擎会根据站点的规模、访问量等信息,自动设定一个合理的抓取压力。但是在异常情况下,如压力控制时长时,服务器会根据自身负荷进行保护性的偶然封禁。这种情况下,请在返回码502,这样搜索引擎蜘蛛会过段时间再来尝试抓取这个链接。如果网站已空闲,则会被成功抓取。


Public @ 2013-04-30 16:22:37

如何提高spider抓取网站?提高spider抓取策略(1)

SEO网站优化SEOER,每天都要时刻关注百度蜘蛛有没有来抓取网站,抓取了网站哪些内容,没有抓取网站哪些内容,再没有抓取的页面上观察调整网站的问题。想要提高爬虫抓取频率可以从几个方面着手,简单介绍提高spider抓取网站的策略。提高spider抓取策略有哪些?一、抓取友好性:抓取压力调配降低对网站的访问压力带宽造成访问压力大,会直接影响网站的正常用户访问,为了不影响网站的正常用户访问,又能让spi

Public @ 2010-03-31 16:22:35

360搜索蜘蛛IP段及蜘蛛ip被拦截的问题解决方法

360搜索蜘蛛的IP段为:180.153.236.0/22 和 101.227.12.0/24,具体的IP地址视情况而定。 如果您的网站遇到了360搜索蜘蛛IP被拦截的问题,可以尝试以下解决方法: 1.检查是否误判 有些安全软件或防火墙可能会将360搜索蜘蛛误判为恶意IP,因此导致被拦截。您可以通过查看安全软件或防火墙的日志来确认是否误判,并将360搜索蜘蛛的IP地址添加到白名单中。 2.

Public @ 2023-03-31 20:00:30

网站的搜索引擎蜘蛛抓取越多越好?事实未必

做过SEO或站长的都应该知道,网站要想做排名就必须使网站文章先收录,而网站内容收录由跟搜索引擎蜘蛛的来访抓取有很大的关系。搜索引擎蜘蛛,又被称为网页爬虫,网络机器人,在FOAF社区中间,也经常被称为网页追逐者,是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。另外它还有一些不常使用的名字,如:蚂蚁,自动索引,模拟程序或者蠕虫。那么,对于一个网站来说,是不是来网站爬行的搜索引擎蜘蛛越多越好呢

Public @ 2015-11-05 16:22:38

更多您感兴趣的搜索