Categories


Tags


360搜索对Robots协议的扩展

360搜索对Robots协议进行了扩展,增加了以下几个指令: 1. User-Agent:用于指定搜索引擎访问网站时使用的用户代理字符串,可以设置多个User-Agent。 2. Crawl-delay:用于指定搜索引擎访问网站时的延迟时间,单位为秒。可以设置针对不同的User-Agent的延迟时间。 3. Sitemap:用于指定网站的sitemap文件的地址,搜索引擎将通过该文件获取站点的所有URL。 4. Host:用于指定网站的主机名,可以避免因为DNS变化导致搜索引擎爬虫无法访问网站。 5. Clean-param:用于指定需要从URL中移除的参数,搜索引擎在访问网站时会忽略URL中包含的这些参数。 6. Noindex-nofollow:用于指定不需要被搜索引擎收录或链接的页面。 这些指令的使用可以让网站管理员更加灵活地控制搜索引擎爬虫的访问行为,以达到更好的SEO效果。

Public @ 2023-05-29 17:00:21

二级域名还是一级目录?

读者smart问:都说子站包围主站会很有利,想问一下关于子站的问题子站(二级域名)相对于网站的一级目录来说,权威性是不是要大些?搜索引擎是把子站作为独立的一个站来看待?还是也算为一级目录来看待?如果是作为独立的一个站来看待,那主站的内容就少了,那流量会算进主站吗?这是一个很好的问题,要做好搜索引擎优化,就是要在这种细节的地方多下功夫。搜索引擎会把二级域名当作一个独立的站点来看待,也就是说http:

Public @ 2019-10-04 16:11:37

百度对301转向反应缓慢的再观察

众所周知,百度对301转向反应非常缓慢,网上站长和SEO们的抱怨大把大把的。最近对这个问题又注意观察了一下。我这个SEO每天一贴是2006年开始写的,但那时候不是在seozac.com这个域名上,当初是在另一个域名的二级目录上。2011年1月才搬到这个域名。2011年3月的这篇帖子对换域名并做301转向的后续情况做过一些记录,简单说,百度和Google都在两个月之内完成了内容、权重等的传递。不过,

Public @ 2010-05-22 16:09:11

网站误封Robots该如何处理

robots文件是搜索生态中很重要的一个环节,同时也是一个很细节的环节。很多站长同学在网站运营过程中,很容易忽视robots文件的存在,进行错误覆盖或者全部封禁robots,造成不必要损失!那么如果误操作封禁了robots怎么办?今天我们请到了厦门258网站运营负责人——郑军伟,为我们分享网站robots误封禁后该如何操作?【案例背景】网站开发2.0版本,技术选择了在线开发,为了避免搜索引擎抓取开

Public @ 2009-10-29 16:08:56

360搜索对Robots协议的扩展

360搜索对Robots协议进行了扩展,增加了以下几个指令: 1. User-Agent:用于指定搜索引擎访问网站时使用的用户代理字符串,可以设置多个User-Agent。 2. Crawl-delay:用于指定搜索引擎访问网站时的延迟时间,单位为秒。可以设置针对不同的User-Agent的延迟时间。 3. Sitemap:用于指定网站的sitemap文件的地址,搜索引擎将通过该文件获取站点

Public @ 2023-05-29 17:00:21

更多您感兴趣的搜索

0.423029s