Categories


Tags


robots使用技巧

以下是一些使用robots.txt文件的技巧和最好的做法: 1. 不要放弃robots.txt - 一些网站管理员没有robots.txt文件,因为他们认为这是保护网站的安全措施,但事实上它可能会影响搜索引擎爬取。 2. 维护一个更新的robots.txt文件 - 确保您的robots.txt文件不是过时的。如果您从网站上删除了某些页面或文件夹,请务必更新文件以反映更改。 3. 不要使用robots.txt来隐藏私人或敏感信息 - robots.txt文件不应该用于隐藏个人信息,如登录页面或敏感数据。如果您希望它们得到安全保护,最好使用其他安全措施。 4. 逐个声明规则 - 避免声明一大堆规则,而是按需要分开声明,以便搜索引擎更好地理解您的规则。 5. 警惕错误 - 如果您不熟悉robots.txt文件的语法或规则,最好使用在线工具来帮助您检测和修复可能的错误。 6. 不要使用禁用所有规则 - 避免声明禁用所有页面和机器人的规则。这些规则会阻止搜索引擎爬取您的网站,从而影响您的搜索引擎排名。 7. 深度限制 - 使用“深度”选项声明可以访问的文件夹层数,以帮助搜索引擎减少遍历您的网站的时间。 8. 关注机器人 - 使用“User-agent”选项指定要检查的机器人类型,并在需要时声明特定的规则。

Public @ 2023-05-28 16:00:31

nofollow标签的作用有重大变化

2019年9月10日,Google官方博客表示,nofollow属性将不再仅代表拒绝传递权重,而将拓展为三种属性:rel="sponsored"、rel="ugc"、rel="nofollow"。 1. rel=”sponsored” 该属性用于标示被广告赞助的链接,例如广告合作,展示商标,赞助商链接等。它是告诉搜索引擎,链接是被广告商赞助,而非独立推荐。 2. rel=”ugc” 该属性

Public @ 2023-04-26 02:50:15

url上使用#号好不好

一般来说,url当中的#号是一个锚点的标志位,这样的url打开之后会将访问者的视线定位在指定位置上,令访问者直接看到网页中间的一段内容。自从推特流行开始,#号被附予了新的意义——话题。很多站长直接在#号后面加参数且参数是有效的,即#号去掉与不去掉,打开的网页完全不同。目前百度对带#号URL的收录策略是:去掉#号后面的内容,仅对#号前面的url进行建库。这样就导致一些站长认为有意义有价值的页面,百度

Public @ 2014-09-14 16:11:09

玩转robots协议

2013年2月8日北京市第一中级人民法院正式受理了百度诉奇虎360违反“Robots协议”抓取、复制其网站内容的不正当竞争行为一案,索赔金额高达一亿元,这可以看做2012年下半年“3B大战”的继续。在此次索赔案件中,百度称自己的Robots文本中已设定不允许360爬虫进入,而360的爬虫依然对“百度知道”、“百度百科”等百度网站内容进行抓取。其实早在2012年11月初,针对双方摩擦加剧的情况,在中

Public @ 2019-05-13 16:09:21

更多您感兴趣的搜索

0.727620s