Categories


Tags


巧用Robots避免蜘蛛黑洞

对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。

比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?

我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:

对于普通的筛选结果页,该网站选择使用静态链接,如:http://bj.XXXXX.com/category/zizhucan/weigongcun

同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。

robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为Baiduspider提供了更友好的网站结构,避免了黑洞的形成。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2020-05-11 16:08:55

网站内链是什么?

网站内链,指网站的各级导航、锚文本和由图片、图标、视频等媒体附带的站内链接,狭义上仅指在网站内部指向其它内部页面的锚文本。网站内链可以使用户轻松实现站内的页面跳转。一个结构清晰的网站和金字塔类似,即从首页沿一级和二级导航跳转向各个分页面,各个分页面之间以关键词锚文本或页面切换的方式互相跳转,实现了站内页面的连贯性和相关性。好的网站内链不仅能加快用户提取页面内关键信息的速度,而且能使各大搜索引擎的蜘

Public @ 2010-02-12 16:11:29

如何设置清晰的网站导航?

1.确定内容:建立一个清晰的网站导航首先要确定网站内容,并按重要程度划分为不同分支,以便给用户提供更明确的浏览导航。 2.合理分类:将网站内容进行合理的分类,为用户提供一个清晰的导航结构,让用户可以更容易找到自己想要的内容。 3.制定详细菜单:根据网站内容设计合理的菜单,每个菜单都应有一个清晰明确的描述,以便用户更易于理解。 4.使用图标或颜色:使用图标或颜色将不同的导航项目区分开来,让

Public @ 2023-02-25 14:00:25

关于robots.txt的二三事

1. Robots.txt是一个协议,用于控制搜索引擎爬虫的访问范围。 2. Robots.txt文件位于网站的根目录下,包含了一些指令告诉爬虫哪些页面可以访问,哪些页面需要限制访问。 3. Robots.txt文件并不会阻止所有爬虫的访问,只有支持Robots.txt协议的爬虫才会遵守文件中的指令。 4. Robots.txt文件中的指令可以根据不同的爬虫进行个性化设置,可以控制不同爬虫访

Public @ 2023-04-11 13:00:34

更多您感兴趣的搜索

0.420228s