Categories


Tags


url上使用#号好不好

一般来说,url当中的#号是一个锚点的标志位,这样的url打开之后会将访问者的视线定位在指定位置上,令访问者直接看到网页中间的一段内容。自从推特流行开始,#号被附予了新的意义——话题。很多站长直接在#号后面加参数且参数是有效的,即#号去掉与不去掉,打开的网页完全不同。

目前百度对带#号URL的收录策略是:去掉#号后面的内容,仅对#号前面的url进行建库。这样就导致一些站长认为有意义有价值的页面,百度却无法收录,继而影响新链接的抓取和整体SEO效果。

所以站长在建站的时候对#号的使用一定要慎谨,百度站长平台不建议在有独特内容价值的url上使用#号。下面我们来看两个case:

case1:y.qq.com/#type=toplist&p=top_2

说明:百度仅对去掉“#type=toplist&p=top_2”后的y.qq.com进行抓取,导致爬虫获取到的页面与浏览器打开的页面不一致;优质页面无法收录,而且无法follow到该网页上的新链接。

case2:lvyou.baidu.com/changbaishan#/scene-remark-anchor

说明:虽然该url有着极优质的点评内容、用户可以通过访问该地址获得大量有用信息,但被百度建库的lvyou.baidu.com/changbaishanh并没有针对景点评论相关关键词进行优化,导致其很难在“长白山怎么样”之类的长尾query下有好的表现。除此之外,该页面所有点评内容都是通过JS异步加载实现的,导致百度根本不知道该页面上有这么优质的原创内容,这些内容自然也无法通过搜索引擎获得流量。

如果对URL的优化还有别的疑问,大家可以到[学堂同学汇][学习讨论] 《url上使用#号好不好》讨论贴中发表自己的看法,我们的工作人员会关注这里并与大家进行探讨。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2014-09-14 16:11:09

robots.txt:如何让搜索引擎不要抓取没用的页面

| 什么是robots文件?Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。| 为什么要做robots文件?网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。| 如何制作 robots文件?编写robots.txt文件并上传到网站根目录。| 制作 robots.txt注意事项● 所有搜索引擎则用星号表示● All

Public @ 2019-03-13 16:09:27

301重定向在网站排名优化中的应用

301重定向在网站排名优化中的应用URL是搜索引擎获取网站的入口。URL的长度和复杂性会影响网站的抓取和收录,也会影响网站的排名。如何优化URL和301重定向,以方便搜索引擎快速抓取收录?就像www.admin5.cn和admin5.cn,不管打开哪一个网址,所打开的网页内容都是相同的,但在搜索引擎的算法中,这是两个不同的网页。如果你不做域名重定向,主域名的权重会分配给其他域名,这一点是站长们需要

Public @ 2016-05-16 16:09:14

如何避免大量重复URL被百度收录

以下是一些避免大量重复URL被百度收录的方法: 1. 使用canonical标签:在所有重复的URL中添加一个canonical标签,以指定主URL,这样百度就会把所有指向这个URL的链接都算作一个页面。 2. 使用301重定向:把所有重复的URL都指向主URL,这样百度就会把所有重定向过来的网页视为同一网页。 3. robots.txt文件:在robots.txt文件中添加Disallow

Public @ 2023-04-24 03:50:09

更多您感兴趣的搜索

0.417893s