Categories


Tags


如何提高spider抓取网站?提高spider抓取策略(1)

SEO网站优化SEOER,每天都要时刻关注百度蜘蛛有没有来抓取网站,抓取了网站哪些内容,没有抓取网站哪些内容,再没有抓取的页面上观察调整网站的问题。

想要提高爬虫抓取频率可以从几个方面着手,简单介绍提高spider抓取网站的策略。

提高spider抓取策略有哪些?

一、抓取友好性:抓取压力调配降低对网站的访问压力

带宽造成访问压力大,会直接影响网站的正常用户访问,为了不影响网站的正常用户访问,又能让spider抓取有价值性的页面。

1、IP压力控制

如果一个域名下存在多个IP,或者是多个域名下对应同一个IP,需要根据IP和域名多种条件进行压力调配控制。也可以在站长平台中使用压力反馈工具,人工调配对网站的抓取压力,这样spider会优先根据站长的要求进行抓取压力控制。

2、站点的抓取速度

如果在同一个站点,抓取速度控制有两类:第一类,一段时间内的抓取频率;第二类,一段时间内的抓取流量。同一个站点在不同的时间内抓取的速度是不同的,根据站点的类型来设置。

二、常用抓取返回码示意

1、404:“NOT FOUND”,表示该网页已经失效,通常在库中删除,spider如果发现这条URL是不会抓取的。

2、503:“Service Unavailable”,表示该网页暂时不能访问。网页返回503状态码,百度spider不会直接删除这条URL,再访问多次的情况下,网页如果恢复正常,就能正常抓取。如果继续返回503,才会认为是失效链接,从库中删除。

3、403:“Forbidden”, 表示该网页目前禁止访问。如果生成的是新的URL,spider是暂时不会抓取,也是会再访问多次;如果是被收录的URL,不会直接删除,短期内同样反复访问几次。如果网页正常访问,则正常抓取;如果仍然禁止访问,那么这条URL也会被认为是失效链接,从库中删除。

4、301:“Moved Permanently”, 表示该网页重定向到新的URL。如果站点需要更换域名、站点改版的情况下,需要设置301重定向,也可以在站长平台上网站改版工具提交,有效减少网站的流量损失。

来源:搜外网


Public @ 2010-03-31 16:22:35

头条搜索UA介绍

头条搜索UA(User Agent)是指头条搜索爬虫在访问并抓取网站数据时,所使用的浏览器标识。多数爬虫在访问网站时,会使用特定的浏览器标识,以便服务器能够识别其为爬虫,并为其提供特定的处理方式。头条搜索爬虫也不例外,其使用的UA是:"Mozilla/5.0 (compatible; ToutiaoSpider/2.0; +http://toutiao.com/)"。其中,"Mozilla/5.0

Public @ 2023-06-24 16:50:08

Baiduspider抓取造成的带宽堵塞?

Baiduspider抓取造成的带宽堵塞?Baiduspider的正常抓取并不会造成您网站的带宽堵塞,造成此现象可能是由于有人冒充Baiduspider恶意抓取。如果您发现有名为Baiduspider的agent抓取并且造成带宽堵塞,请尽快和我们联系。您可以将信息反馈至反馈中心,如果能够提供您网站该时段的访问日志将更加有利于我们的分析。如果大家对百度spider还有别的疑问,大家可以到[学堂同学汇

Public @ 2019-04-06 15:38:40

网站的搜索引擎蜘蛛抓取越多越好?事实未必

做过SEO或站长的都应该知道,网站要想做排名就必须使网站文章先收录,而网站内容收录由跟搜索引擎蜘蛛的来访抓取有很大的关系。搜索引擎蜘蛛,又被称为网页爬虫,网络机器人,在FOAF社区中间,也经常被称为网页追逐者,是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。另外它还有一些不常使用的名字,如:蚂蚁,自动索引,模拟程序或者蠕虫。那么,对于一个网站来说,是不是来网站爬行的搜索引擎蜘蛛越多越好呢

Public @ 2015-11-05 16:22:38

导致搜索引擎蜘蛛不能顺利爬行的因素

1. 网站结构复杂和不合理:网站结构过于复杂或不合理会阻碍搜索引擎蜘蛛的爬行,导致关键页面无法被索引。 2. 缺乏关键词和优化:如果网站没有优化,或关键词使用不当或缺乏,搜索引擎无法判断网站内容的重要性,从而无法正确推荐网站给用户。 3. 网页载入时间过长:搜索引擎会优先考虑快速载入的网站。如果网站速度慢,搜索引擎会认为网站不够优秀,会影响网站的排名。 4. robots.txt 文件限制:

Public @ 2023-04-03 19:50:18

更多您感兴趣的搜索

0.436257s