Categories


Tags


什么是URL标准化(规范网页),URL标准化设置

开始之前我需要给大家强调一个思路,每个关键词应该对应一个URL而不是多个。(但一个URL可以对应多个关键词。)

一个网站的首页,往往通过几个不同的URL可以访问到,举个例子:

https://www.seowhy.com/

https://seowhy.com

https://www.seowhy.com/index.html

https://www.seowhy.com/index.php

搜外首页的关键词是:SEO,这个关键词应该对应的是哪一个URL呢?

答案是:不管对应哪一个URL,核心是,这个关键词要一直对应这一个URL。

SEOWHY选择的是https://www.seowhy.com 这个URL。

1、  SEOWHY的首页我们只给https://www.seowhy.com这个URL,不会给另外三个。https://www.seowhy.com这个就是首页。

2、  当你在站内或站外做锚文本时,要用https://www.seowhy.com这个URL,而不是给另外三个,否则会导致不能集中权重到https://www.seowhy.com上。

3、  网站首页采用的绝对地址https://www.seowhy.com。

这就是URL标准化的概念,也叫确定规范网页。

规范网页是一组内容完全相同或高度相似的网页的首选版本。标准化URL是指这个规范网页的指定URL。

以上例子中,https://www.seowhy.com/就是搜外首页的标准化URL。

来源:搜外网


Public @ 2009-11-06 16:11:59

网站链接该如何优化,链接优化方法

链接优化包括站内链接优化和站外链接优化,以及各种形式链接的重要性和特点等。单向链接:A网页链接了B网页,而B网页没有回链接A网页,即称为单项链接。做单项链接对网页本身要有很高的权威性,让他人主动来给你做链接。这类网页一般都是知名度很高,有很高人气。链接内容相关性:一个高质量的链接可以敌得过3个不相关的链接。提高用户访问深度的同时,也提高了网站权重的全局导向。内容的相关程度在某些时候只能靠外链建设人

Public @ 2018-11-04 16:11:36

robots使用误区

1. 不需要在每个页面都添加robots.txt文件:robots.txt文件只是一份给搜索引擎看的指令,如果不希望搜索引擎从该页面抓取数据,那么每一页都是可以不用添加robots.txt文件的。 2. 不能用于移动设备:robots.txt文件可用于搜索引擎爬虫,但也可以在部分机型的移动设备上进行yu处理,可以用于控制移动设备的蜘蛛爬行进行内容抓取。 3. 不应该将robots保存到公用

Public @ 2023-03-03 14:00:19

url上使用#号好不好

一般来说,url当中的#号是一个锚点的标志位,这样的url打开之后会将访问者的视线定位在指定位置上,令访问者直接看到网页中间的一段内容。自从推特流行开始,#号被附予了新的意义——话题。很多站长直接在#号后面加参数且参数是有效的,即#号去掉与不去掉,打开的网页完全不同。目前百度对带#号URL的收录策略是:去掉#号后面的内容,仅对#号前面的url进行建库。这样就导致一些站长认为有意义有价值的页面,百度

Public @ 2014-09-14 16:11:09

url里index.php怎么去掉?

问题:求教url里index.php怎么去掉?回答:1、这个是网站URL设置问题,如果是静态的去URL结构里去设置,如果是伪静态的去设置伪静态规则;2、使用URL重写,可以使网站的URL屏蔽这类中间出现这个的URL;3、下图的截图原文来自:ThinkPHP中去除URL里的index . php。ps:这种网址也能正常被搜索引擎抓取爬行,不影响站点的收录来源:A5营销

Public @ 2009-10-12 16:04:56

更多您感兴趣的搜索

0.423874s