Categories


Tags


如何设置网站地址URL规范化?网址规范化会造成哪些问题

网站如果出现多个不规范的网址,分散了页面权重,影响搜索引擎爬行和排名。

如何设置网站地址URL规范化?

1、使用301转向,很多用户习惯搜索带www,把不带www的301转向到带www的页面即可。

2、URL网址规范化,链接网址都采用首选域名的绝对地址。

3、canonical标签相当于一个页内的301转向,区别在于用户并不被转向,还是停留在原网址上面,而搜索引擎会把他当做是301转向处理,把页面权重集中到标签中指明的规范化网址上。

4、提交给搜索引擎XML网址地图中全部使用规范化网址。

5、设置robots.txt文件,阻止网站不希望被搜索引擎检索的网址目录,用URL格式。

网址规范化会造成哪些问题

1、CMS系统在不同地方链接到不同的URL,内部链接与外部链接比较混乱,容易造成分散了网页权重,影响排名。

2、网站优化外链起到很重要的作用,如果找的外链跟网站主题没有相关性,指向的URL出现偏差,也会导致权重的分散。

3、在做链接链回首页所使用的URL并不是唯一的,一下链接到有带www的URL中,一会链接到有带index.html后缀文件,搜索引擎识别受到阻碍,无法确定站点首页。

4、网站收录严重受阻,蜘蛛不能完全抓取页面信息。

5、复制内容过多,被搜索引擎认为是作弊站点。

SEO网站站内优化要比站外优化更重要些,做好SEO站内优化中的URL网址规范化是基本也很重要的核心技术。

来源:搜外网


Public @ 2011-08-17 16:11:21

百度搜索robots协议全新升级公告

尊敬的用户: 为了更好地保护您的隐私和内容权益,百度搜索已经全新升级了robots协议。该协议将更加严格地限制搜索引擎爬取您的网站内容,以保障您的权益。 更新后的robots协议针对以下内容进行了调整: 1.增加禁止搜索引擎爬取的网页类型,如登录页、支付页、个人信息页等。 2.增加网站所有者对搜索引擎爬取的细节设置,包括最大爬取频率、爬取深度、爬取延时等。 3.优化 robots.txt

Public @ 2023-04-17 05:00:13

Robots META标签的写法

Robots META标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。 content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。INDEX 指令告诉搜索机器人抓取该页面;FOLLOW 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;Robots Me

Public @ 2019-08-04 16:09:30

如何解决网址规范化问题

解决网址规范化问题有以下几点方法:1.确保使用的CMS系统只产生规范化网址,无论是否有静态化。2.在Google管理员工具中设置首选域。3.所有内部链接保持统一,都指向规范化网址。4.使用canonical标签。5.使用301转向,把不规范化URL全部转向到规范化URL。6.提交给搜索引擎的XML网站地图中全部使用规范化网址。来源:搜外网

Public @ 2010-02-20 16:11:22

更多您感兴趣的搜索

0.609076s