Categories


Tags


搜索引擎排名的人工干预

虽然搜索引擎排名技术和算法一直在提高,但我相信所有搜索引擎都或多或少有人工干预,就算最标榜一切以算法和自动化为目标的Google,也肯定有人工因素。

去年就曾经有人报道(http://www.searchbistro.com/index.php?/archives/19-Google-Secret-Lab,-Prelude.html),Google在很多国家的大学招募学生,进行搜索引擎结果的评价工作。一位教授从他的学生那里得到了这份资料,里面包含Google发给这些学生的评价标准,还有一段评价系统的演示。

大意是这些学生会在一个界面中,看到某一个特定搜索的两种结果,然后给出意见,哪一个更好,还是一样。

GoogleGuy很强烈的评论说,这份资料的泄漏已经违反了这些学生当初和Google所签订的保密条约。这也肯定了这些人工评价的存在。GoogleGuy说,这些进行搜索结果评估的学生或编辑,并不能直接干预搜索结果,也就是不能对搜索结果做任何调整。

Google的做法是,把这些评估作为软件工程师调整算法时的输入,通过算法的改变,使搜索结果更能符合编辑的预期。

我想这是可以相信的。估计在Google内部,只有在很高层次的人才有权力对某个网站的排名进行调整,就像前一阵Google对BMW网站的惩罚和快速恢复一样,这不可能是普通工程师有的权力。

不过无论如何,就连Google也肯定有人为的因素。

对百度人工干预搜索结果的传言就更多了。我的这个博客是我唯一的中文网站,所以对百度的人工干预并没有切身感受。不过从很多地方都能看到各种各样的评论猜测,认为百度对搜索结果的人工干预更广泛更随意,不是通过算法实现,而是直接调整某个网站的SEO排名。

我个人认为,这种方式没有Google的处理方式好。网站数目这么庞大,用户搜索的关键词这么多,不可能由人工对每个关键词的排名结果做评估。针对某个特定网站的调整,无法避免人的偏见和不公平性。人是最能腐败的动物,而算法不会。

给定一定的条件,算法对所有网站一视同仁。而人不可避免的带有主观性,在很多情况下,比算法还要不公正。

补充:刚写完这个帖子还没发就发现我的这个博客被百度封杀了。我观察应该是全面封杀,因为几乎所有页已经被删除了。不一定是人工干预。明天再来谈。

来源:seo每天一贴 Zac 昝辉


Public @ 2022-08-25 16:21:50

中文分词和TF-IDF

中文分词(Chinese Word Segmentation)指的是将一个汉字序列切分成一个一个单独的词。中文分词是文本挖掘的基础,对于输入的一段中文,成功的进行中文分词,可以达到电脑自动识别语句含义的效果。TF-IDF(term frequency–inverse document frequency)是一种用于信息搜索和信息挖掘的常用加权技术。在搜索、文献分类和其他相关领域有广泛的应用。TF-

Public @ 2016-02-22 16:12:36

搜索引擎工作的基础流程与原理

搜索引擎的基本工作原理是:用户向搜索引擎输入一系列关键词,搜索引擎会从自身拥有的网页数据库中根据相关算法去检索出匹配度最高的搜索结果进行显示和返回给用户。 搜索引擎的基本流程包括: 1. 网页爬虫:搜索引擎会通过程序自动爬取网页上的数据。 2. 网页索引:搜索引擎会把所有爬取的数据进行索引,并在索引中建立统一的编号,以便后续的检索。 3. 网页分类:搜索引擎会把所有索引的内容进行分类,

Public @ 2023-03-01 20:00:35

搜索引擎如何抓取你的网页

搜索引擎优化(SEO)是搜索引擎有好的收录网页的过程,适当的SEO有利于蜘蛛爬行你的网站,使你的内容符合搜索引擎算法,以便确认它与关键词高度相关。优化的目的就是使网页的内容便于蜘蛛理解,下面我就以百度新收录的一篇内容来进行说明,我以一个完整标题进行搜索,其目的是能反映出更多关键词在百度自然搜索的结果页面,能更好的说明搜索引擎是如何抓取你的网页的。搜索引擎如何抓取你的网页 网站优化 SEO优化 SE

Public @ 2019-08-19 16:22:21

搜索引擎体系结构

搜索引擎基本结构一般包括:搜索器、索引器、检索器、用户接口等四个功能模块。1、搜索器:搜索器也叫网络蜘蛛,是搜索引擎用来爬行和抓取网页的一个自动程序,在系统后台不停歇地在互联网各个节点爬行,在爬行过程中尽可能快的发现和抓取网页。2、索引器。它的主要功能是理解搜索器所采集的网页信息,并从中抽取索引项。3、检索器。其功能是快速查找文档,进行文档与查询的相关度评价,对要输出的结果进行排序。4、用户接口。

Public @ 2018-03-04 16:22:54

更多您感兴趣的搜索

0.400020s