Categories


Tags


搜索引擎的Robots协议

robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。通常认为,robots.txt文件用来搜索引擎对目标网页的抓取。

robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。

对于Google来说,使用robots也未必能阻止Google将网址编入索引,如果有其他网站链接到该网页的话,Google依然有可能会对其进行索引。按照Google的说法,要想彻底阻止网页的内容在Google网页索引中(即使有其他网站链接到该网页)出现,需要使用noindex元标记或x-robots-tag。例如将下面的一行加入到网页的header部分。

<meta name="googlebot" content="noindex">

如果Google看到某一页上有noindex的元标记,就会将此页从Google的搜索结果中完全丢弃,而不管是否还有其他页链接到此页。

搜索引擎的Robots规则

对于百度来说,情况和Google类似,如果有其他网站链接目标网页,也有可能会被百度收录,从百度的说明页面上看,百度并不支持像Google那样通过noindex完全将网页从索引上删除,只支持使用noarchive元标记来禁止百度显示网页快照。具体的语句如下。

<meta name="Baiduspider" content="noarchive">

上面这个标记只是禁止百度显示该网页的快照,百度会继续为网页建索引,并在搜索结果中显示网页摘要。

例如,淘宝网目前就通过robots.txt来屏蔽百度爬虫,但百度依旧收录了淘宝网的内容,百度搜索“淘宝网”,第一个结果也是淘宝网首页地址,只是该页面没有网页快照,因此看来,网站只能禁止百度的快照,而无法禁止百度为网页建索引。

来源:月光博客


Public @ 2018-04-08 16:09:21

301重定向是什么?301重定向怎么做?

301重定向是什么页面永久性移走(301重定向)是一种非常重要的“自动转向”技术。网址重定向最为可行的一种办法。当用户或搜索引擎向网站服务器发出浏览请求时,服务器返回的HTTP数据流中头信息(header)中的状态码的一种,表示本网页永久性转移到另一个地址。301永久重定向对SEO无任何不好的影响,而且网页A的的权重都会传达给网页B,对于搜索引擎优化、网站优化来说,给搜索引擎一个友好的信息,告诉它

Public @ 2009-11-11 16:09:35

301设置:一定要做的集中权重的方法

1. 确定风险限制:在设置好集中权重之前,首先应该确定一个风险限制,即股票组合投资的最大容差,通过筛选从而减少投资组合中股票偏离行业指数储备组合的可能性。 2. 集中权重:根据企业权重设定原则,最重要的是集中权重,即将一定数量的权利集中在一个行业板块或者一家企业上。 3. 调整权重:集中权重也可以细化到每一只股票的内容上,通过调整不同股票的权重,以达到透明度平衡,跨行业组合,从而使股票组合更

Public @ 2023-02-26 03:00:25

robots.txt文件有什么必要?

什么是robots.txt文件?搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。robots

Public @ 2018-10-22 16:09:22

网站误封Robots该如何处理

robots文件是搜索生态中很重要的一个环节,同时也是一个很细节的环节。很多站长同学在网站运营过程中,很容易忽视robots文件的存在,进行错误覆盖或者全部封禁robots,造成不必要损失!那么如果误操作封禁了robots怎么办?今天我们请到了厦门258网站运营负责人——郑军伟,为我们分享网站robots误封禁后该如何操作?【案例背景】网站开发2.0版本,技术选择了在线开发,为了避免搜索引擎抓取开

Public @ 2009-10-29 16:08:56

更多您感兴趣的搜索

0.413297s