Categories


Tags


robots协议

 Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫扫除规范”(RobotsExclusionProtocol),网站经过Robots协议通知查找引擎哪些页面可以抓取,哪些页面不能抓取  是查找引擎的一部分来定位和索引互联网上的每个可能答复查找恳求的网页,一般只在评论robots的HTML标签或许robots.txt文件的时分运用。

Public @ 2010-10-17 15:26:25

排名算法(rankingalgorithm)

查找引擎排名算法指的是用户输入要害词后,查找引擎在自己的页面数据库中寻觅挑选,而且按必定规矩对成果页面进行排名的进程。  是用来操控查找匹配怎样精确地依照次序排布在查找成果页面的软件,查找匹配有时分被依照页面生成的日期来排名,而大多数排名是依照相关性,查找引擎的相关性排名算法是每个查找引擎公司的中心商业秘要。

Public @ 2014-03-02 15:51:40

更多您感兴趣的搜索

0.759138s