Categories


Tags


百度站长平台robots工具升级公告

亲爱的网站管理员,

很高兴的告诉大家,百度站长平台robots工具全新升级,升级后能够实时查看网站在百度中已生效的的robots文件,并支持对robots进行语法及逻辑校验,有助于站长更清晰的管理网站的robots文件,避免错误的封禁搜索引擎。

功能亮点:

1、实时查看网站在百度中已生效的robots文件内容并可通知百度更新:

升级后的robots能够查看网站已生效的robots文件,同时会展现网站最新的robots文件。若当前生效的并非最新的robots内容,可在工具中点击“更新”提醒百度。

2、支持对robots文件进行语法及逻辑校验:

在robots工具—规则校验—填写robots规则—填写被实验的路径中,点击“校验”,会展现该路径是否能被成功被封禁、或者robots规则是否有语法错误。robots填写还支持从已验证网站直接导入robots内容。

robots工具地址:http://zhanzhang.baidu.com/robots/index

哪些情况下需要使用robots工具?

1、我的网站下有某个目录涉及到了隐私数据,不想被搜索引擎收录。

此时您可以使用robots工具—创建生成页面中,根据robots规则创建正确的robots文件,并将robots文件上传到网站顶级目录中。

robots1.png

2、我用robots封禁了网站的某目录,但依然被抓取,怎样查设置的robots文件是不是已生效?如果还未生效,怎样提醒百度更新?

查看网站已生效的robots文件:您可以在robots工具—robots检测—下拉列表选取站点域名,点击“检测”,就可查看网站已生效的robots文件,并同时会展现网站最新的robots文件。

提醒百度更新网站的robots文件:若已生效的robots文件不是最新的,那可在“robots检测”页面的下方“提交更新”处点击更新进行提醒。

robots2.JPG

3、我的网站设置robots文件,怎样判断设置的是否正确?

您可在robots工具—规则校验中, 对robots代码的语法及逻辑进行校验,并可校验路径是否被封禁。

(1)校验语法或逻辑错误:您可在robots工具—规则校验中,输入robots代码,点击“校验,会展现您所填写的Robots规则是否有语法错误。Robots填写还支持从已验证网站直接导入robots内容。

(2)校验路径是否被封禁:您可在robots工具—规则校验中,分别输入robots代码、需要校验的路径,点击“校验”,会额外展现该路径是否成功被封禁。

robots3.JPG

来源:百度搜索资源平台


Public @ 2016-06-12 16:09:01

URL是什么?URL里包含关键词对收录有帮助吗?

URL是Uniform Resource Locator,即统一资源定位符,也称为网址。它是指用于定位互联网上资源的字符串,通常以http或https开头。 URL中包含的关键词可以对搜索引擎的收录有帮助,因为搜索引擎会通过分析URL中的信息来判断网页的主题和内容,从而更好地理解和索引网页。例如,如果你的URL中包含了关键词,那么搜索引擎会更容易识别你的页面与这些关键词相关,从而提高你的页面在搜

Public @ 2023-06-16 11:50:23

IIS网站服务器性能优化指南

以下是一些建议,可以帮助你优化IIS网站服务器性能: 1. 使用最新版本的IIS:确保你正在使用最新版本的IIS,因为每个新版本都会带来一些性能和安全性方面的改进。 2. 配置连接并发限制:根据服务器硬件和应用程序需求,调整IIS的连接并发限制,以确保服务器资源的最佳利用。 3. 启用输出缓存:启用IIS的输出缓存功能,可以缓存静态内容以减轻服务器负载,提高网站的响应速度。 4. 使用Gz

Public @ 2023-07-22 07:50:44

关于robots.txt的二三事

【Robots简介】robots.txt是一个协议,是搜索引擎访问网站时第一个要查看的文件,它存在的目的是告诉搜索引擎哪些页面能被抓取,哪些页面不能被抓取。当spider访问一个站点时,会首先检查该站点根目录下是否存在robots.txt,如果存在,spider会按照文件中的内容来确定访问的范围;如果该文件不存在,所有的spider将能够访问网站上所有没有被口令保护的页面。【具体介绍】1、User

Public @ 2017-02-13 16:09:19

什么是robots文件

什么是robots文件Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网

Public @ 2017-09-19 16:02:20

更多您感兴趣的搜索

0.543357s