Categories


Tags


怎样优化URL有利于SEO

优化URL是做SEO的第一步,一个好的URL有这些特点:

1、层次越少越好

有的URL很深很长层次很多,这种URL就对SEO不是很友好,一个适合SEO的URL应该是3层:第一层域名、第二层定义当前页面属于什么性质、第三层是当前页面的ID。

2、分类页采用目录形式,内容页采用内页形式

网站的栏目页面、分类页面,采用目录形式的URL,如www.xxx.com/abc;

网站的产品页面、新闻页面、内容页面,采用内页形式的URL,如www.xxx.com/123.html;

3、英文网站让URL里带关键词

如果我们做的网站是一个英文的网站,那就尽量要让这个网站的各个URL里都带有当前页面的关键词,简单来说就是优化关键词,把英文关键词放在URL里。

4、分类URL与内页URL不用有关联

网站的产品分类、文章分类、新闻分类等,不用跟他所对应的内页有关联,简单来说就是通过查看URL不用看出当前页面属于哪个分类。因为我们往往一个产品或者内容属于多个分类,如果在URL上给规定好了的话,以后就会有很多麻烦。

5、URL中的字母全部用小写

对于为什么URL中的字母全部用小写,这里有以下原因:

① 有些服务器是区分大小写的,例如Lunix服务器,这样在站长做链接或者是用户输入时,会因为大小写的问题而出现404页面,而且robots也是区分大小写的,如果大小写搞错了,可能会造成不能收录的严重问题。

② 全部用小写,用户比较容易输入,不用因为大小写混合而出现错误,这是人们的输入习惯。

来源:搜外网


Public @ 2015-03-11 16:11:14

关于URL组成部分的指南

URL是Uniform Resource Locator的缩写,它指定了用于访问某个资源的方式。 URL包含以下几个组成部分: 1. 协议(protocol):指定了访问资源需要使用的协议,例如HTTP、HTTPS、FTP等。 2. 域名(domain name):也称为host,指定了要访问的服务器的域名或IP地址。例如,www.google.com就是一个域名。 3. 端口号 (port

Public @ 2023-03-28 06:50:19

robots.txt使用教程

robots.txt 是一个文本文件,用于指示搜索引擎爬虫哪些页面可以被抓取,哪些页面不应该被抓取。在建立一个网站时,可以通过 robots.txt 控制搜索引擎爬虫对网站的访问,以达到更好的SEO效果。以下是robots.txt的使用教程。 步骤1:新建 robots.txt 文件 在网站的根目录下,新建一个名为 robots.txt 的文本文件。 步骤2:编辑 robots.txt 文件

Public @ 2023-04-18 01:00:34

URL的优化

URL的优化可以通过以下几方面来实现: 1. 简洁明了:URL应该尽量简短,清晰地描述页面的内容。避免使用过长的URL,可使用关键词来描述页面的主题。 2. 使用关键词:在URL中使用关键词可以帮助搜索引擎更好地理解页面的内容。关键词应该与页面的主题相关,但不要过度堆砌关键词。 3. 使用连字符:在URL中使用连字符(-)来分割单词,而不要使用下划线或者空格。连字符可以提高URL的可读性,同

Public @ 2023-07-29 06:00:22

URL中带文字对搜索引擎的利与弊,是有利还有弊?

有利: 1. 带有文字的URL能够为搜索引擎提供搜索查询所需要的相关性参数,从而增强搜索引擎的准确度。 2. 带有文字的URL为用户带来了一种方便,它能够提高搜索的准确性,使得用户能够更快地找到想要的信息。 弊: 1. 如果网站使用了过于长的URL,这可能会降低搜索引擎的搜索结果排名。 2. 带有文字的URL也会增加搜索引擎抓取网页所需要的时间,从而影响网页更新的快慢。

Public @ 2023-02-28 22:00:21

更多您感兴趣的搜索

0.522026s