Categories


Tags


360搜索对Robots协议的扩展

360搜索对Robots协议进行了扩展,增加了以下几个指令: 1. User-Agent:用于指定搜索引擎访问网站时使用的用户代理字符串,可以设置多个User-Agent。 2. Crawl-delay:用于指定搜索引擎访问网站时的延迟时间,单位为秒。可以设置针对不同的User-Agent的延迟时间。 3. Sitemap:用于指定网站的sitemap文件的地址,搜索引擎将通过该文件获取站点的所有URL。 4. Host:用于指定网站的主机名,可以避免因为DNS变化导致搜索引擎爬虫无法访问网站。 5. Clean-param:用于指定需要从URL中移除的参数,搜索引擎在访问网站时会忽略URL中包含的这些参数。 6. Noindex-nofollow:用于指定不需要被搜索引擎收录或链接的页面。 这些指令的使用可以让网站管理员更加灵活地控制搜索引擎爬虫的访问行为,以达到更好的SEO效果。

Public @ 2023-05-29 17:00:21

网站结构有哪些类型1:什么是树状结构

我们都知道,搜索引擎喜欢的网站结构是树状结构,树状结构符合人们对知识的归类习惯。比如:图书馆的阅览室分为:自然科学阅览室、人文科学阅览室、报刊杂志阅览室。这几个阅览室内的书架又分为:自然科学阅览室:数学、物理、化学…人文科学阅览室:哲学、诗歌、小说…每个书架又会详细划分,比如数学有:高等数学、基础数学等。搜索引擎的数据库可以类比为一个超级图书馆,每个网站相当于这个超级图书馆某阅览室里的一个小书架。

Public @ 2019-06-10 16:12:09

更多您感兴趣的搜索

0.473045s