Categories


Tags


360搜索对Robots协议的扩展

360搜索根据站长们的反馈,会陆续推出扩展的Robots协议命令。这些命令将能帮助站长们提高和360搜索爬虫沟通的效率,减少站长们维护Robots协议文件的技术成本。

360搜索首个扩展命令是:indexpage,站长们可以使用此命令告知360搜索哪些网页经常更新。360搜索会根据站长的指示以及自己的算法,智能调整爬虫抓取频率,实现对您网站新内容的更高频率抓取。

在命令中可以使用*、$等通配符。

示例:

使用通配符的

Indexpage: http://bbs.360safe.com/forum-*-1.html$

Indexpage: http://ent.sina.com.cn/*/roll.html

不用通配符的:

Indexpage: http://roll.tech.sina.com.cn/internet_all/index.shtml

Indexpage: http://roll.tech.sina.com.cn/it/index.shtml

Indexpage: http://roll.tech.sina.com.cn/tele/index.shtml

Indexpage: http://roll.tech.sina.com.cn/discovery/index.shtml

Indexpage: http://roll.tech.sina.com.cn/elec/index.shtml


Public @ 2019-02-15 16:09:33

IIS网站服务器性能优化指南

一、优化IIS服务器软硬件结构: 1.通过购买新的、更高性能的服务器硬件来提升IIS网站服务器性能。 2.建议配备处理器或内存模块,以充分利用可用的硬件资源。 3.为IIS网站服务器分配更多的虚拟内存。 4.将IIS安装在专门预留的空间上,避免共享磁盘转速信号。 二、调整IIS性能参数: 1.重新设置IIS网站服务器性能参数,以减轻服务器进程负载并最大化资源利用率。 2.禁用或限

Public @ 2023-02-24 21:25:00

不带www域名重定向到带www域名

在.htaccess文件中添加以下代码: RewriteEngine On RewriteCond %{HTTP_HOST} !^www\. RewriteRule ^(.*)$ http://www.%{HTTP_HOST}/$1 [R=301,L] 这段代码的作用是:首先打开Apache的重写引擎;然后检查HTTP_HOST是否已经是以"www."开头,如果不是,则执行下一行代码;最后执行

Public @ 2023-06-23 12:00:08

什么是robots文件

什么是robots文件Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网

Public @ 2017-09-19 16:02:20

更多您感兴趣的搜索

0.494233s