Categories


Tags


robots.txt概念和10条注意事项

robots.txt概念

如果我们网站内有某些特殊的文件不让搜索引擎收录,那怎么办?

答案是:使用一个叫做robots.txt的文件。

robots.txt文件告诉搜索引擎本网站哪些文件是允许搜索引擎蜘蛛抓取,哪些不允许抓取。

搜索引擎蜘蛛访问网站任何文件之前,需先访问robots.txt文件,然后抓取robots.txt文件允许的路径,跳过其禁止的路径。

总结:robots.txt是一个简单的.txt文件,用以告诉搜索引擎哪些网页可以收录,哪些不允许收录。

关于robots.txt文件的10条注意事项:

1、如果未创建robots.txt文件,则代表默认网站所有文件向所有搜索引擎开放爬取。

2、必须命名为:robots.txt,都是小写,robot后面加"s"。

3、robots.txt必须放置在一个站点的根目录下。

通过如https://www.seowhy.com/robots.txt 可以成功访问到,则说明本站的放置正确。

4、一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。

5、空格换行等不能弄错,可复制这个页面并修改为自己的。点击

6、有几个禁止,就得有几个Disallow函数,并分行描述。

7、至少要有一个Disallow函数,如果都允许收录,则写: Disallow:

如果都不允许收录,则写:Disallow: /  (注:只是差一个斜杆)。

8、允许有多个User-agent,如果对所有爬取蜘蛛生效,则用“*”星号表示。

9、robtos.txt文件内可以放上Sitemap文件地址,方便告诉搜索引擎Sitemap文件地址。

10、网站运营过程中,可以根据情况对robots.txt文件进行更新,屏蔽一些不要搜索引擎抓取的文件地址。

举例两个常见屏蔽规则:

User-agent: *  星号说明允许所有搜索引擎收录

Disallow: /search.html   说明 https://www.seowhy.com/search.html 这个页面禁止搜索引擎抓取。

Disallow: /index.php?   说明类似这样的页面https://www.seowhy.com/index.php?search=%E5%A5%BD&action=search&searchcategory=%25 禁止搜索引擎抓取。

来源:搜外网


Public @ 2019-12-20 16:09:22

站点地图创建方法

创建站点地图的方法如下: 1.确定网站结构:确定网站的目录结构和分类,以及网页之间的链接关系。 2.创建XML文件:将网站的链接和网页信息保存在一个XML文件中。 3.注册站点:将站点地图提交给主要的搜索引擎(如Google、Baidu等)进行注册。 4.检查更新:每次网站更新,都需要更新站点地图,以保持站点地图的完整性和准确性。 5.使用工具:使用在线工具或插件轻松创建站点地图,例如:

Public @ 2023-04-25 08:50:07

通过robots.txt文件屏蔽蜘蛛抓取不存在的后缀

通过网站日志分析,会发现搜索引擎蜘蛛抓取了一些网站上不存在的文件后缀,如:.php、.asp、.aspx等。搜外网站后台日志分析结果如下图:image.搜外主站实际上不存在php后缀的URL地址。可通过robots.txt文件禁止蜘蛛抓取不存在的后缀,减少出现404返回值。在robots.txt文件填写屏蔽规则如下:Disallow: /*.asp$Disallow: /*.php$Disallo

Public @ 2015-07-18 16:09:24

什么是meta robots 标签?meta robots 标签的写法

Meta robots标签是一种HTML头部元数据标签,用于指示搜索引擎如何处理指定页面的内容。它告诉网络爬虫如何爬取索引优化。这些标签是在和之间添加的,旨在为“robots(搜索引擎蜘蛛)”提供有关如何索引和缓存页面内容的指令。 以下是meta robots标签的写法: - - - - 其中,“content”属性指定一组用逗号分隔的值,可以是以下之一: - index:告诉爬

Public @ 2023-04-05 21:50:30

更多您感兴趣的搜索

0.540252s