Categories


Tags


Google技术副总裁谈Google排名算法

今天是Google新闻发布日2006,大家可以看新闻发布会的实况,长达3个多小时。在发布会上Google总裁Eric Schmidt谈到Google的核心还是搜索,相关人员介绍了四个新产品,其中Google Trend对关键词研究很有用。

最感兴趣的是Google技术部门副总裁Alan Eustace谈Google排名的情况。所以我只跳到这个部分看了一下,大概半小时。下面拣记得的重点介绍给大家。

Alan首先谈到的是蜘蛛爬行,基本上就是跟踪所发现的链接。

速度非常重要。上一次Google在主页上发布的信息是,在数据库中有80亿网页。如果每秒爬行一个网页的话,这80亿的网页需要250多年才能爬行完。所以高速爬行网页非常重要。

爬行时的另外一个问题是,大概有50%的网页都是重复内容。所以Google所收录的80亿其实是已经丢掉了一半后的数字,真正爬行的有可能是200亿文件。

爬行时还有一个危险就是无限循环。比如说跟踪某个网页上日历的链接,可能在这个日历上总是有“下一个月”这个按钮,产生无限循环。因为网页程序可以无限制的生成下一个月的月历,Google蜘蛛就出不来了。

10%到20%的网站每个月都会更新内容,更新度也很重要。

然后是索引,索引就和一本书的索引差不多。比如说用户搜索heart attack(心脏病暴发),heart出现在文件5,9,25,attack出现在文件7,9,22,那么很明显第九个网页是符合条件的网页,这样搜索范围就已经限制在包含搜索词的网页内。

当然这个数量还是巨大的,再怎么从这里面挑出最好的结果呢?也就是进一步计算排名。

Google用两百多个信号来计算排名,这是新信息。

Alan提到了锚文字和PageRank。

举斯坦弗大学网页作为例子,很多其他网站会连向斯坦弗大学的网页,那么可以合理假定斯坦弗大学的网站权威性比较高,这也就是PR的意义。

然后是锚文字,也就是链接文字。比如在斯坦弗大学的网页上,一个以“Knight fellows”为链接文字的链接到其他网站,那么这个链接文字本身就在一定程度上说明了那个网页的主题,就算在那个网页上面Knight fellows这个词根本没有出现。

这个排名过程必须是自动的,不可能人工去调节这些排名。

Alan谈到大约20%到25%的搜索关键词都是独特的,也就是说以前从来没有别人所搜索过的。用户都非常有创意,会以各种各样形式组合的词来做搜索。

一个关键词搜索是由上千架机器所处理的。

Alan接着谈到垃圾技术,比如说在留言本里留下垃圾链接,这种技术对Google来说早就不起作用了。再比如有的作弊的人建立大量的网站,在这些网站之间互相链接,这对Google也不起作用。

他加了一句:对别的搜索引擎起不起作用,那就不知道了。

Google在做算法调整的时候,依据是多少人受益。比如说做某个调整,40%的人会觉得搜索质量提高,40%的人觉得没什么变化,20%的人觉得搜索质量降低,Google的决定就会是进行这个调整。

不可能在100%的搜索词下满足100%的人。

Alan还提到很多其他语言的搜索也非常困难,比如中文分词技术。

这段谈话倒没有很出人意料的地方,但Google负责技术的副总裁自己谈Google排名算法就已经很难得了。

等有时间再完整看一遍,看有什么新东西。

来源:SEO每天一贴 Zac 昝辉


Public @ 2010-05-24 15:30:10

新站增加百度收录的诀窍

1. 提交网站地图:在百度站长平台中,提交网站地图(XML格式),可以加快百度爬虫对网站的索引速度。 2. 内容质量优化:建立高质量的内容对于获得百度收录非常重要。这包括优化标题、关键字、描述、分类、内容等等。 3. 建立友链:在同行业的网站中建立友链,可以为新站的收录速度提供一定的帮助,也可以促进网站相互引流的效果。 4. 提交百度指数:在百度指数中提交网站可以增加百度对于新站的关注度,从

Public @ 2023-04-07 12:00:36

sitemap的三种格式,TXT、XML及HTML区别是什么?

课程讲的sitemap是url提交, txt文本、HTML 、XML区别是啥啊 我看了好久没看懂。11-22.那我们网站的这个网站地图又是干嘛用的呢?11-23.网站的sitemap,主要目的就是将整站的url都整理到一个文件里面,然后把文件上传至网站根目录下。再到百度资源平台,提交sitemap处,提交这个文件的链接。sitemap可以帮助搜索引擎更好的了解网站的url,促进蜘蛛的爬取和页面收录

Public @ 2016-11-09 16:09:51

最权威的Google排名算法解密

作为一名AI助手,我并不具备解密Google排名算法的能力,因为谷歌对其排名算法的保密工作非常严格,只有谷歌内部的高管和工程师才掌握具体的细节。 然而,我们可以从谷歌官方的公告和一些研究报告中了解一些关于谷歌排名算法的基本原则和优化方法。 谷歌排名算法的核心原则包括网站质量、内容质量、用户体验等多个因素。因此,网站应该提供有价值的内容、良好的用户体验、高质量的外部链接和良好的网站结构等方面进行

Public @ 2023-04-25 13:50:19

Google索引更新,算法更新,数据刷新

在视频8里面,Matt Cutts解释了Google索引更新index update,算法更新algorithm update,数据刷新data refresh,这三个术语都是什么意思。2003年的时候,Google差不多每个月爬行一次互联网,抓取网页,这个过程是索引更新index update。算法可能改变,数据也改变,差不多什么都改变了,一次过,这也就是人们常说的Google Dance,站长

Public @ 2011-07-15 15:54:31

更多您感兴趣的搜索

0.874051s