Categories


Tags


常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:

1、禁止所有搜索引擎抓取网站的任何部分

User-agent: *

Disallow: /

这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。

2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)

User-agent: *

Allow: /

这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以不用创建robtos.txt文件,即默认全部允许抓取。

3、禁止spider抓取特定目录

User-agent: *

Disallow: /a/

Disallow: /b/

Disallow: /c/

这是禁止所有的spider抓取a、b、c目录。这个规则我们最常用到,比如网站的程序后台、程序目录等都可以禁止spider抓取,以减少spider无意义的浪费我们的空间资源。

4、禁止spider抓取搜索结果页面

User-agent: *

Disallow: /so_article?*

如果你网站的搜索结果页面URL格式如:/so_article?keyword=搜索关键字,则按以上格式进行屏蔽,注意最后带了一个星号*,代表屏蔽so_article?带头的所有URL。

对于大部分网站,常用的就是以上4种情况。

来源:搜外网


Public @ 2010-05-21 16:09:23

网站链接该如何优化,链接优化方法

网站链接优化是指通过一系列的技术和策略来提高网站链接的质量和数量,从而提高网站在搜索引擎中的排名和流量。以下是一些链接优化方法: 1. 内部链接优化:使用内部链接将网站页面与关键词相关联,提高用户体验和页面权重。 2. 外部链接优化:建立高质量的外部链接,如社交媒体、目录网站和行业论坛等,提高网站的权威度和知名度。 3. 锚文本优化:将目标关键词作为锚文本链接到相关页面,加强关键词的权重和相

Public @ 2023-04-11 00:01:17

新手如何掌握制作和提交网站地图?

网站地图作为根据网站的结构,框架,内容生成的导航网页文件。大多数人都知道网站地图对于提高用户体验有好处:它们为网站访问者指明方向,并帮助迷失的访问者找到他们想看的页面。那么什么是网站地图呢?在开始介绍网站地图的制作与提交之前,我们有必要先了解一下什么是网站地图。网站地图也就是sitemap,是一个网站所有链接的容器。很多网站的链接层次比较深,蜘蛛是很难抓取到的,网站地图可以方便搜索引擎蜘蛛抓取网站

Public @ 2021-11-03 16:09:49

360搜索对Robots协议的支持

360搜索支持Robots协议的主要命令,以下为具体说明:1. user-agent360搜索各产品的爬虫user-agent为:- 网页搜索 360Spider- 图片搜索 360Spider-Image- 视频搜索 360Spider-Video2. Allow站长可通过Allow命令指定建议收录的文件、目录 。3. Disallow站长可通过Disallow命令指定不建议收录的文件、目录。

Public @ 2019-06-30 16:09:34

robots.txt语法教程

robots.txt 是一个文件,它位于网站的根目录下,用于告诉搜索引擎和机器人哪些页面可以被访问或哪些不应该被访问。以下是 robots.txt 语法教程。 1. User-agent User-agent 表示搜索引擎或机器人的名称。当网站管理员想要禁止某个搜索引擎或机器人访问网站时,可以使用 User-agent 指定名称。 例如: User-agent: Googlebot Dis

Public @ 2023-06-06 11:00:18

更多您感兴趣的搜索

0.447174s