Categories


Tags


网站架构对SEO的影响

2011年第一文,在这里祝大家新年快乐,今天卢松松就归纳下之前所有网站的架构对SEO的影响,有许多网友问过重复的问题,我在这里归总一下。在以后的日子里,我还将不断优化本站提供的模板下载,在符合SEO的同时,更加兼顾模板的性能问题,为本站模板用户创造出高访问量网站模板优化。

一:W3C标准对SEO的影响。

我们看到每个网页的源文件(右键查看源文件),几乎每个网站最顶部都有以下代码:

<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">

<html xmlns="http://www.w3.org/1999/xhtml">

以上代码是告诉浏览器、验证机制和搜索引擎的spider这个网站是遵循W3C标准的。验证的方法是http://validator.w3.org/,输入验证的网址,我们就能看到不匹配的错误信息。

虽然很多网站都没有遵循W3C标准也获得了很好的排名,早在前几年,很多网站都不会遵循这个标准,但是经过验证后,能保证遵循W3C标准的网站样式不会被不同浏览器改变,使得网站的访问者看到的网页与设计出来的完全一致。

二:DIV+CSS对SEO的影响。

DIV+CSS应该是web标准常用术语之一,在XHTML网站设计标准中,不再使用表格(table)定位技术,而采用DIV+CSS,搜索引擎对网站的排名顺序不是固定的,SEO的思想就是用搜索引擎的理念来搭建网站。

这种DIV+CSS设计网站对SEO的影响是显而易见的,由于结构简单、符合标准,利用DIV+CSS架构的网站深受搜索引擎喜欢,不过并不是所有DIV+CSS对网站的排名都有好处,正确的网页布局,对于SEO是非常有利的。对于XHTML标准的DIV+CSS布局,一般在设计完成后都会通过W3C验证。

三:静态页面对SEO的影响。

很多SEO人在做优化的过程中,可以强调页面静态化,他们认为这样更有利于搜索引擎抓取网站内容。但是,目前如google、百度等搜素引擎都能收录动态页面,使用动态页面的站点数远远大于静态页面的网站,如web2.0网站,有时候HTML静态化反而是得不偿失的。

其实搜索引擎对静态页面和动态页面并没有特殊喜好之分,动态页面参数机制不利于收录,同时频繁读写数据字导致磁盘损伤等等问题,而静态页面带来的问题是生成文件数量非常多,需要大量空间存储文件、同时页面维护的复杂性都将大大提高。介于此,现在很多网站流行做伪静态处理。

四:目录级别对SEO的影响

目前SEO界公认的说法是目录级别在3级以内,有时域名根目录下不一定只有目录,还有一些单页面,这样的单页面在搜索引擎中的权重肯定要比目录下的单页面高。

同时,在目录中设置关键词是很重要的,下面以“网站推广”这个关键词为例,“网站推广”是核心关键词,那么在设计网站结构的时候就需要把长尾关键词,如“网站推广方案”在子栏目目录名中出现,到了第三层页面就是具体要优化的三级关键词了。

五:目录文件名对SEO的影响

目录路径和文件名也是影响排名的一个重要因素,很多人很容易忽略这点,根据关键词无所不在的原则,许多重要优化的页面直接命名为文件名。目前google会将“_”、“%20”都等于空格,所以我们在做目录文件名时尽量使用乳如zblog-help.html结构,“-”而不是“_”进行分割。

随着搜索引擎不断改进,google、百度都能支持中文文件名了,经过使用urlencode的字符串,这样的排名要优于其他文件命名方法。

六:网页大小对SEO的影响

网页大小通常以KB来表示,早在前几年,超过100KB的网页会收录不全。可能是当时带宽也小、搜索引擎也无法抓取较大的页面。如今,带宽都宽了、信息量也大了,门户网站首页大多在100KB以上,网站首页大是正常的,但具体内容页面,则应该追求精简,过大的页面不仅会降低打开速度,在搜索排名中要落后于较小的页面。在此之前卢松松曾介绍过“小技巧给网页减肥,让网站提速”的文章有兴趣的朋友可以看看。

来源:卢松松博客


Public @ 2010-08-23 16:12:06

能否利用canonical标签陷害竞争对手?

今天再介绍一个黑帽负面SEO的想法:利用canonical标签陷害竞争对手。聊黑帽SEO绝不是建议读者做黑帽,优化正规网站的还是尽量别尝试,风险很大。但了解黑帽SEO方法,一是开拓思路,第二更重要的是,防范别人用负面SEO方法陷害自己。站长们认真观察的话一定会发现,负面SEO的尝试是一直在发生的。我这个小小的、谁也不得罪的SEO博客都经常被人制造巨量垃圾链接、制造大量敏感词搜索页面、刷跳出率等等,

Public @ 2019-01-30 16:11:18

robots.txt语法教程

robots.txt 是一个文件,它位于网站的根目录下,用于告诉搜索引擎和机器人哪些页面可以被访问或哪些不应该被访问。以下是 robots.txt 语法教程。 1. User-agent User-agent 表示搜索引擎或机器人的名称。当网站管理员想要禁止某个搜索引擎或机器人访问网站时,可以使用 User-agent 指定名称。 例如: User-agent: Googlebot Dis

Public @ 2023-06-06 11:00:18

从SEO角度优化网站结构带来哪些好处?

网站的优化分为两大部分,一是网站结构的优化,二是页面上关键词的优化。今天主要讲的是网站结构优化,网站首页的布局对网站优化有着至关重要的作用,网站结构布局结构好才能吸引蜘蛛更好的抓取。从SEO角度优化网站结构带来哪些好处?1、提高用户体验网站结构针对于用户体验进行优化,考虑多维度用户的需求,提高多类型用户的体验度,让搜索引擎更好地收录我们的网站,从而提升网站排名。2、提高收录率优化网站的结构,建议形

Public @ 2019-03-09 16:12:08

了解什么是物理结构

网站物理结构指的是网站真实的目录及文件所在的位置所决定的结构。物理结构一般分有两种:第一种是偏平式,也就是所以网页文件都存在网站根目录下。如果有很多文件放在根目录下,制作和维护起来都比较麻烦。大中型网站把文件都放在根目录下基本就无法管理了。扁平物理结构有一个优势,那就是很多人认为根目录下的文件比深层目录中的文件天生权重高一点。第二种是树形结构,称为金字塔结构。根目录下以目录形式分成多个产品分类(频

Public @ 2020-04-08 16:12:07

更多您感兴趣的搜索

0.603150s