Categories


Tags


robots.txt:如何让搜索引擎不要抓取没用的页面

| 什么是robots文件?

Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。

| 为什么要做robots文件?

网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。

| 如何制作 robots文件?

编写robots.txt文件并上传到网站根目录。

| 制作 robots.txt注意事项

● 所有搜索引擎则用星号表示

● Allow(允许)和Disallow(不允许)优先级

● 至少屏蔽一个,可以屏蔽:搜索结果页面/404页面

● 记得将sitemap放到Robots文件中

● 可以陆续放入更多,而不是一次性决定所有

● 网站后台地址/图片地址/下载文件地址/错误链接(搜外网)


Public @ 2019-03-13 16:09:27

内部链接nofollow控制权重分布

Nofollow属性推出以后,Matt Cutts多次说过,nofollow既可以用在论坛,博客等的留言中,代表这些链接不是站长能控制和背书的,也可以用在某些内部链接,以达到控制内部链接权重和PR流动及分布的目的。最常见的应用是在网站联系我们,隐私权政策,用户条款等链接上。这些网页往往都是整站有链接,如果没有使用nofollow,整站的链接权重都会平等的流动到这些网页上。而像隐私权政策这些网页一般

Public @ 2017-01-19 16:08:47

绝对路径与相对路径有什么区别?

绝对路径与相对路径有什么区别?在Html的应用中经常会涉及到绝对路径与相对路径的概念(如超级链接、图片等),这两种路径所表达的意义在于绝对路径可以精确引用,而相对路径则是模糊应用概念,只是在目标目录下找到引用,所以大多数Html工作者都会选择使用相对路径。绝对路径与相对路径有什么区别?相对路径的三种写法介绍  一、绝对路径  绝对路径是指文件在硬盘上真正存在的路径。例如“bg.jpg”这个图片是存

Public @ 2020-01-09 16:11:48

哪些网站的目录需求运用robots.txt文件制止抓取

以下是一些可能需要使用robots.txt文件制止抓取的网站目录: 1. 敏感网站:包括医疗机构、政府机构、银行和其他敏感机构的网站。 2. 私人网站:包括个人博客、论坛和社交媒体账号。 3. 用户数据:包括个人信息、照片、视频和其他敏感数据。 4. 搜索引擎排除页面:包括不想在搜索引擎结果中出现的页面。 5. 网站目录:包括一些不需要搜索引擎索引的目录,如网站的管理员和内部页面。 6

Public @ 2023-06-13 02:50:20

更多您感兴趣的搜索

0.503812s