Categories


Tags


Robots文件的作用和规范写法

控制页面的抓取、索引是SEO优化网站结构时经常需要用到的技术。常见的工具包括:robots文件页面的noindex标签链接的nofollow属性页面的301转向页面的canonical标签等这几个工具各有各的特定应用场景,但都是用于控制网站内部结构,之间容易混淆,还经常需要配合使用,SEO们必须准确理解这几个工具的机制和原理,不然很容易出错。这篇贴子讨论robots文件。Robots文件的作用ro

Public @ 2012-12-30 16:09:20

站点地图的构建技巧

重要页面如果站点地图包含太多链接,人们浏览的时候就会迷失。因此如果网站页面总数超过了100个的话,就需要挑选出最重要的页面。建议挑选下面这些页面放到网站地图中去:产品分类页面;主要产品页面;FAQ和帮助页面;位于转化路径上的所有关键页面,访问者将从着陆页面出发,然后沿着这些页面实现转化;访问量最大的前10个页面;如果有站内搜索引擎的话,就挑选出从该搜索引擎出发点击次数最高的那些页面。地图布局站点地

Public @ 2013-11-27 16:11:49

头条搜索站长平台-sitemap异常原因解释

sitemap异常原因解释解决方法爬虫被封禁可能是您的网站对Bytespider的UA或IP进行封禁建议您根据我们公布的UA和IP进行解封,第二天重新抓取之后会恢复正常sitemap文件数据量过大可能是您的sitemap节点数量超过了5w个建议您拆分为几个小的sitemap文件sitemap地址非法可能是您的sitemap地址不可访问或者存在xml和txt混合模式的数据建议您按照我们的要求提交si

Public @ 2021-01-02 16:09:47

更多您感兴趣的搜索

0.443568s