Categories


Tags


url上使用#号好不好

一般来说,url当中的#号是一个锚点的标志位,这样的url打开之后会将访问者的视线定位在指定位置上,令访问者直接看到网页中间的一段内容。自从推特流行开始,#号被附予了新的意义——话题。很多站长直接在#号后面加参数且参数是有效的,即#号去掉与不去掉,打开的网页完全不同。

目前百度对带#号URL的收录策略是:去掉#号后面的内容,仅对#号前面的url进行建库。这样就导致一些站长认为有意义有价值的页面,百度却无法收录,继而影响新链接的抓取和整体SEO效果。

所以站长在建站的时候对#号的使用一定要慎谨,百度站长平台不建议在有独特内容价值的url上使用#号。下面我们来看两个case:

case1:y.qq.com/#type=toplist&p=top_2

说明:百度仅对去掉“#type=toplist&p=top_2”后的y.qq.com进行抓取,导致爬虫获取到的页面与浏览器打开的页面不一致;优质页面无法收录,而且无法follow到该网页上的新链接。

case2:lvyou.baidu.com/changbaishan#/scene-remark-anchor

说明:虽然该url有着极优质的点评内容、用户可以通过访问该地址获得大量有用信息,但被百度建库的lvyou.baidu.com/changbaishanh并没有针对景点评论相关关键词进行优化,导致其很难在“长白山怎么样”之类的长尾query下有好的表现。除此之外,该页面所有点评内容都是通过JS异步加载实现的,导致百度根本不知道该页面上有这么优质的原创内容,这些内容自然也无法通过搜索引擎获得流量。

如果对URL的优化还有别的疑问,大家可以到[学堂同学汇][学习讨论] 《url上使用#号好不好》讨论贴中发表自己的看法,我们的工作人员会关注这里并与大家进行探讨。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2014-09-14 16:11:09

搜索引擎自己应该是可以检测协议死链(404、403等)的,为什么还需要站长提交?

答:搜索引擎的蜘蛛的确是能够对404页面进行识别,但是蜘蛛去被动的识别网站的死链可能需要较长的时间,不利于网站及时清理在搜索引擎中已收录的死链,所以我们才在站长平台设置了死链提交功能。请站长在处理站点死链的时候,一定要注意收集整理好,然后前往站长平台进行提交。提交后,一旦验证死链真实性,将会比较快速地从搜索引擎删除提交的数据。提交链接:http://zhanzhang.so.com/?m=Dead

Public @ 2014-05-22 15:36:59

robots

robots是网站跟爬虫间的协议,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限,也就是说robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。来源:360站

Public @ 2014-01-16 16:09:19

如何避免大量重复URL被百度收录

以下是一些避免大量重复URL被百度收录的方法: 1. 使用canonical标签:在所有重复的URL中添加一个canonical标签,以指定主URL,这样百度就会把所有指向这个URL的链接都算作一个页面。 2. 使用301重定向:把所有重复的URL都指向主URL,这样百度就会把所有重定向过来的网页视为同一网页。 3. robots.txt文件:在robots.txt文件中添加Disallow

Public @ 2023-04-24 03:50:09

什么是URL标准化(规范网页),URL标准化设置

开始之前我需要给大家强调一个思路,每个关键词应该对应一个URL而不是多个。(但一个URL可以对应多个关键词。)一个网站的首页,往往通过几个不同的URL可以访问到,举个例子:https://www.seowhy.com/https://seowhy.comhttps://www.seowhy.com/index.htmlhttps://www.seowhy.com/index.php搜外首页的关键词

Public @ 2009-11-06 16:11:59

更多您感兴趣的搜索

0.426707s