Categories


Tags


常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:

1、禁止所有搜索引擎抓取网站的任何部分

User-agent: *

Disallow: /

这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。

2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)

User-agent: *

Allow: /

这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以不用创建robtos.txt文件,即默认全部允许抓取。

3、禁止spider抓取特定目录

User-agent: *

Disallow: /a/

Disallow: /b/

Disallow: /c/

这是禁止所有的spider抓取a、b、c目录。这个规则我们最常用到,比如网站的程序后台、程序目录等都可以禁止spider抓取,以减少spider无意义的浪费我们的空间资源。

4、禁止spider抓取搜索结果页面

User-agent: *

Disallow: /so_article?*

如果你网站的搜索结果页面URL格式如:/so_article?keyword=搜索关键字,则按以上格式进行屏蔽,注意最后带了一个星号*,代表屏蔽so_article?带头的所有URL。

对于大部分网站,常用的就是以上4种情况。

来源:搜外网


Public @ 2010-05-21 16:09:23

不带www域名重定向到带www域名

要将不带www域名重定向到带www域名,你需要进行以下操作: 1. 打开网站所在的服务器。 2. 找到并打开网站的主配置文件,通常是位于/etc/nginx/nginx.conf或/etc/apache2/httpd.conf。 3. 在配置文件中找到虚拟主机部分,它通常以开头。 4. 在该虚拟主机部分的配置中,找到ServerName或ServerAlias字段。如果没有这两个字段,请添

Public @ 2023-08-01 05:00:17

客制化404页面设计上需要注意几点?

404页面设计注意事项:1、首先404页面要保持网站统一模板,设计风格,logo及名称,不要让用户弄不清自己到了哪个网站上。2、404页面应该在最醒目的位置显示错误信息,明确提示用户,要访问的页面不存在。还可以加上几点可能性,如页面已删除,用户输入了错误的地址,链接中的地址错误,页面已转移到新的地址等。3、错误信息下面还可以为用户提供几种点击选项,如网站地图,包括通往首页和重要分类页面的链接,建议

Public @ 2013-12-30 16:09:57

robots.txt文件的格式

robots.txt文件的格式为: User-agent: [user-agent-name] Disallow: [URL path] 其中,[user-agent-name]指代搜索引擎爬虫的名称,[URL path]指代禁止访问的URL路径。在文件中可以定义多条User-agent和Disallow规则,每一条规则占一行,每一对规则之间要有一个空行。示例: User-agent: *

Public @ 2023-05-28 01:50:08

robots非标准扩展协议

非标准扩展协议是指为特定需求而开发的协议,它们不是由标准化组织或工作组所制定的,并且通常只在特定的应用程序或系统内部使用。 在机器人领域,非标准扩展协议可以用于实现特殊的功能或针对特定的应用需求。例如,某些机器人可能需要与其他设备进行协同工作,因此可能需要使用非标准的协议来实现通信和控制。 在开发机器人或机器人应用程序时,非标准扩展协议也可用于灵活地实现自定义的功能和控制。例如,一些机器人应用

Public @ 2023-06-26 19:00:17

更多您感兴趣的搜索

0.485206s