Categories


Tags


搜索引擎排名的人工干预

虽然搜索引擎排名技术和算法一直在提高,但我相信所有搜索引擎都或多或少有人工干预,就算最标榜一切以算法和自动化为目标的Google,也肯定有人工因素。

去年就曾经有人报道(http://www.searchbistro.com/index.php?/archives/19-Google-Secret-Lab,-Prelude.html),Google在很多国家的大学招募学生,进行搜索引擎结果的评价工作。一位教授从他的学生那里得到了这份资料,里面包含Google发给这些学生的评价标准,还有一段评价系统的演示。

大意是这些学生会在一个界面中,看到某一个特定搜索的两种结果,然后给出意见,哪一个更好,还是一样。

GoogleGuy很强烈的评论说,这份资料的泄漏已经违反了这些学生当初和Google所签订的保密条约。这也肯定了这些人工评价的存在。GoogleGuy说,这些进行搜索结果评估的学生或编辑,并不能直接干预搜索结果,也就是不能对搜索结果做任何调整。

Google的做法是,把这些评估作为软件工程师调整算法时的输入,通过算法的改变,使搜索结果更能符合编辑的预期。

我想这是可以相信的。估计在Google内部,只有在很高层次的人才有权力对某个网站的排名进行调整,就像前一阵Google对BMW网站的惩罚和快速恢复一样,这不可能是普通工程师有的权力。

不过无论如何,就连Google也肯定有人为的因素。

对百度人工干预搜索结果的传言就更多了。我的这个博客是我唯一的中文网站,所以对百度的人工干预并没有切身感受。不过从很多地方都能看到各种各样的评论猜测,认为百度对搜索结果的人工干预更广泛更随意,不是通过算法实现,而是直接调整某个网站的SEO排名。

我个人认为,这种方式没有Google的处理方式好。网站数目这么庞大,用户搜索的关键词这么多,不可能由人工对每个关键词的排名结果做评估。针对某个特定网站的调整,无法避免人的偏见和不公平性。人是最能腐败的动物,而算法不会。

给定一定的条件,算法对所有网站一视同仁。而人不可避免的带有主观性,在很多情况下,比算法还要不公正。

补充:刚写完这个帖子还没发就发现我的这个博客被百度封杀了。我观察应该是全面封杀,因为几乎所有页已经被删除了。不一定是人工干预。明天再来谈。

来源:seo每天一贴 Zac 昝辉


Public @ 2022-08-25 16:21:50

爬行和抓取

爬行是指动物的行动方式,通常涉及身体的爬行和爬行的动作,如爬行动物(如蛇和蜥蜴)和爬行昆虫(如蚂蚁和蜘蛛)。 抓取是指通过握住或接触来获取动物或物体的行动。抓取可以包括动物的牙齿、爪子、手指、手掌和指甲等器官或物品如工具或表面。抓取通常是为了获取食物或其他资源,或者以进行自我保护或攻击。

Public @ 2023-04-16 07:00:07

百度搜索引擎工作原理-4-外部投票

外部投票是指其他网站链接到你的网站的数量和质量。百度搜索引擎通过外部投票来判断你网站的权威性和可信度,因为如果其他网站链接到你的网站,说明你的内容具有一定的价值和权威性。而且,如果链接到你网站的其他网站本身也是权威性和可信度高的网站,那么你的权威性和可信度也会被提升。因此,外部投票对于提高自己网站在百度搜索引擎中的排名非常重要。 同时,需要注意的是,如果你的网站有过多的低质量或垃圾站点链接到你

Public @ 2023-05-31 01:50:17

搜索引擎工作的基础流程与原理

感谢Mr.Zhao的投稿:搜索引擎最重要的是什么?有人会说是查询结果的准确性,有人会说是查询结果的丰富性,但其实这些都不是搜索引擎最最致命的地方。对于搜索引擎来说,最最致命的是查询时间。试想一下,如果你在百度界面上查询一个关键词,结果需要5分钟才能将你的查询结果反馈给你,那结果必然是你很快的舍弃掉百度。搜索引擎为了满足对速度苛刻的要求(现在商业的搜索引擎的查询时间单位都是微秒数量级的),所以采用缓

Public @ 2018-10-26 16:22:22

搜索引擎工作原理

基本流程抓取网页。每个独立的搜索引擎都有自己的网页抓取程序爬虫(Spider)。爬虫顺着网页中的超链接,从这个网站爬到另一个网站,通过超链接分析连续访问抓取更多网页。被抓取的网页被称之为网页快照。由于互联网中超链接的应用很普遍,理论上,从一定范围的网页出发,就能搜集到绝大多数的网页。处理网页。搜索引擎抓到网页后,还要做大量的预处理工作,才能提供检索服务。其中,最重要的就是提取关键词,建立索引库和索

Public @ 2015-11-08 16:21:49

更多您感兴趣的搜索

0.496509s