Categories


Tags


搜索引擎对用户搜索词如何处理,怎么判断用户搜索词的结果?

搜索引擎接收到用户输入的搜索词后,需要对搜索词做一些处理,才能进入排名过程。

搜索词处理包括以下几方面:

(1)中文分词。与页面索引时一样,搜索词也必须进行中文分词,将查询字符串转换为以词为基础的关键词组合。分词原理与页面分词相同。

(2)指令的处置。平时咱们在搜索时会输入多个词语,实在默认的情况下,搜索引擎把多个默认的词语都依照“与”来进行词语。比方你搜索“seo”“培训”时,搜索引擎会默认咱们输入的“seo培训”来进行处置,独自包括“seo”或者“培训”的网站内容实践上将不会返回,但实际情况往往也会呈现独自包括一个词语的网站。另外,还要处置各种高等搜索指令的词语,比方加号减号等。

(3)停止词。和索引时一样,搜索引擎也需要把搜索词中的停止词去掉,最大限度地提高排名相关性及效率。

(4)过错纠正。用户如果输入了明显错误的字或英文单词拼错,搜索引擎会提示用户正确的用字或拼法。

(5)整合搜索触发。某些搜索词会触发整合搜索,比如明星姓名就经常触发图片和视频内容,当前的热门话题又容易触发资讯内容。(搜外网)


Public @ 2019-02-03 16:22:41

新站建立后,需要多长时间能够被搜狗收录?

收录时间是根据您的网站质量、类型等综合因素考虑的。比如大型的新闻站、优质站点、地方优质门户网站,新站建立后能够达到秒级的收录;再往下一级的普通站点则需要天级;低质量站点的收录时间会达到周级以上甚至不保证收录。新站建立很长时间后,若未被搜狗收录,请到站长平台提交网站收录。来源:搜狗资源平台

Public @ 2011-04-09 15:34:38

搜索引擎网页去重算法分析

相关统计数据表明:互联网上近似重复的网页的数量占网页总数量的比例高达29%,完全相同的网页大约占网页总数量的22%.研究表明,在一个大型的信息采集系统中,30%的网页是和另外70%的网页完全重复或近似重复的。即:互联网的网页中相当高的比例的网页内容是近似相同或完全相同的!搜索爬虫抓取会产生网页重复的类型:1.多个URL地址指向同一网页以及镜像站点如:www.sina.com 和www.sina.c

Public @ 2020-07-15 16:21:55

搜索引擎工作的基础流程与原理

搜索引擎工作的基本流程如下: 1. 网络爬虫:首先搜索引擎需要通过网络爬虫抓取网页,并对网页进行解析,将其中的文本、图片、链接等信息提取出来。 2. 存储索引:接着搜索引擎需要将这些信息存储在索引库中,为后续搜索做准备。 3. 搜索关键词:当用户输入关键词进行搜索时,搜索引擎需要对这些关键词进行分词,并对分词结果进行查询,找到相关的网页并按照相关度排序。 4. 显示结果:最后,搜索引擎会按

Public @ 2023-04-02 03:00:29

更多您感兴趣的搜索

0.405390s