Categories


Tags


常见Robots名字

名称 搜索引擎

google蜘蛛: googlebot

百度蜘蛛:baiduspider

yahoo蜘蛛:slurp

alexa蜘蛛:ia_archiver

msn蜘蛛:msnbot

altavista蜘蛛:scooter

lycos蜘蛛: lycos_spider_(t-rex)

alltheweb蜘蛛: fast-webcrawler/

inktomi蜘蛛: slurp

一个在线写robots.txt的工具。

最后需要注意,robots.txt文件名必须是小写,而且放在网站根目录

来源:360站长平台


Public @ 2013-05-19 16:09:03

搜索引擎自己应该是可以检测协议死链(404、403等)的,为什么还需要站长提交?

搜索引擎可以通过爬取网页来检测协议死链,但是这个过程是需要时间和资源的。站长提交可以加快搜索引擎检测协议死链的速度,同时也可以为搜索引擎提供更加准确的信息,因为站长提交的信息可能会包括更多的细节和背景信息,这对搜索引擎来说非常有帮助。此外,站长提交还可以让搜索引擎更加及时地了解到网站的变化,从而更加准确地更新索引。

Public @ 2023-04-29 22:00:07

sitemap:如何让搜索引擎抓取到所有页面

| sitemap是什么?● 网站地图/链接集合,把网站所有的URL放在一个文件内,方便搜索引擎爬取到。| 如何制作sitemap?● 小型网站采用txt格式的sitemap● 大中型网站采用xml格式的sitemap● 工具:老虎sitemap| 制作sitemap注意事项1. 文件格式为TXT或xml,普通企业官网TXT即可,大型网站可使用xml;2. 按时间倒序排列;3. 每周更新,最好每天

Public @ 2015-07-13 16:09:52

robots非标准扩展协议

非标准扩展协议是指为特定需求而开发的协议,它们不是由标准化组织或工作组所制定的,并且通常只在特定的应用程序或系统内部使用。 在机器人领域,非标准扩展协议可以用于实现特殊的功能或针对特定的应用需求。例如,某些机器人可能需要与其他设备进行协同工作,因此可能需要使用非标准的协议来实现通信和控制。 在开发机器人或机器人应用程序时,非标准扩展协议也可用于灵活地实现自定义的功能和控制。例如,一些机器人应用

Public @ 2023-06-26 19:00:17

百度搜索robots协议全新升级公告

Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。9月11日,百度搜索robots全新升级。升级后robots将优化对网站视频URL收录抓取情况。仅当您的网站包含不希望被视频搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。如您

Public @ 2017-06-06 16:09:00

更多您感兴趣的搜索

0.784655s