检索技术:非精准Top K检索

简介: 本文介绍了非精准Top K检索的优化思路与实现方法,通过简化打分机制提升检索效率。重点讲解了三种技术:基于静态质量得分排序、胜者表及分层索引,结合离线计算与在线截断,在保证结果质量的前提下大幅降低性能开销,广泛应用于搜索与推荐系统中。

上一讲,我们详细讲解了 Top K 检索的打分排序过程,并且还提到可以使用堆排序代替全排序,来大幅降低排序的时间代价。然而,对于这整个检索过程来说,精准复杂的打分开销要比排序大得多。因此,如果我们想更大幅度地提升检索性能,优化打分过程是一个重要的研究方向。那打分过程具体该怎么优化呢?今天,我们就来聊聊这个问题。

什么是非精准的 Top K 检索?


想要优化打分过程,一个很自然的思路就是通过简化打分机制,来降低打分开销。但是简化之后,我们的排序结果就不精准了。这该怎么办呢?这个问题先不着急解决,我们先来看看不精准的排序结果对用户会有什么影响。

其实,在搜索引擎中,排在第一页的结果并不一定是分数最高的。但由于用户在搜索时,本来就没有明确的目标网页,所以只要第一页的网页内容能满足用户的需求,那这就是高质量的检索结果了。

不仅如此,在推荐引擎中也是一样。推荐系统会根据用户的历史行为进行推荐,可推荐的物品非常多。比如说,如果用户曾经购买过《C++ 程序设计》这本书,那接下来我们既可以推荐《C++ 编程实战》,也可以推荐《C++ 编程宝典》。无论我们推荐哪一本,可能对用户来说差别都不大。

我们发现,其实在很多实际的应用场景中,高质量的检索结果并不一定要非常精准,我们只需要保证质量足够高的结果,被包含在最终的 Top K 个结果中就够了。这就是 非精准 Top K 检索的思路

实际上,在工业界中,我们会使用非精准 Top K 检索结合精准 Top K 检索的方案,来保证高效地检索出高质量的 结果。具体来说,就是把检索排序过程分为两个阶段:

  • 第一阶段,我们会进行非精准的 Top K 检索,将所有的检索结果进行简单的初步筛选,留下 k1 个结果,这样处理代价会小很多(这个阶段也被称为召回阶段);
  • 第二个阶段,就是使用精准 Top K 检索,也就是使用复杂的打分机制,来对这 k1 个结果进行打分和排序,最终选出 k2 个最精准的结果返回(这个阶段也被称为排序阶段)。

其实,这个流程你应该很熟悉。这就像我们在招聘时,会先根据简历筛选,再根据面试结果进行筛选。简历筛选的效率很高,但是不精准;面试比较耗时,但能更好地判断候选人的能力,这就属于精准挑选了。

再说回到工业界的检索方案,非精准 Top K 检索到底是怎么使用简单的机制,来加速检索过程的呢?加速的效果如何呢?我们一起来看看。

非精准 Top K 检索如何实现?


在非精准 Top K 检索中,一个降低打分计算复杂度的重要思路是:尽可能地将计算放到离线环节,而不是在线环节。这样,在线环节我们就只需要进行简单的计算,然后快速截断就可以了。一个极端的方案就是根据检索结果的静态质量得分进行打分和截断。具体该怎么做呢?我们一起来看。

1. 根据静态质量得分排序截断


所谓静态质量得分,指的是不考虑检索结果和实时检索词的相关性,打分计算仅和结果自身的质量有关。这样,所有的打分计算就都可以在离线环节完成了。也就是说,我们只需要根据离线算好的静态质量得分直接截断,就可以加速检索的过程了。这么说可能比较抽象,我们通过一个例子来解释一下。

以搜索引擎为例,我们可以不考虑搜索词和网页之间复杂的相关性计算,只根据网站自身的质量打分排序。比如说,使用 Page Rank 算法(Google 的核心算法,通过分析网页链接的引用关系来判断网页的质量)离线计算好每个网站的质量分,当一个搜索词要返回多个网站时,我们只需要根据网站质量分排序,将质量最好的 Top K 个网站返回即可。

不过,为了能快速返回 Top K 个结果,我们需要改造一下倒排索引中的 posting list 的组织方式。我们讲过,倒排索引的 posting list 都是按文档 ID 进行排序的。如果希望根据静态质量得分快速截断的话,那我们就应该将 posting list 按照静态质量得分,由高到低排序。对于分数相同的文档,再以文档 ID 二次排序。

这样一来,在检索的时候,如果只有一个关键词,那我们只需要查出该关键词对应的 posting list,截取前 k 个结果即可。但是如果我们要同时查询两个关键词,截断的过程就会复杂一些。尽管比较复杂,我们可以总结为两步:

  • 第一步,我们取出这两个关键词的 posting list,但不直接截断;
  • 第二步,我们对这两个 posting list 归并排序。留下分数和文档 ID 都相同的条目作为结果集合,当结果集合中的条目达到 k 个时,我们就直接结束归并。


如果是查询多个关键词,步骤也一样。那在这个过程中,我们为什么可以对这两个 posting list 进行归并排序呢?这是因为文档是严格按照静态质量得分排列的。如果文档 1 的分数大于文档 2,那在这两个 posting list 中文档 1 都会排在文档 2 前面。而且,对于分数相同的文档,它们也会按照 ID 进行二次排序。所以,任意的两个文档在不同的 posting list 中,是会具有相同的排序次序的。也因此,我们可以使用归并的方式来处理这两个 posting list。

总结来说,在使用静态质量得分选取非精准 Top K 个结果的过程中,因为没有实时的复杂运算,仅有简单的截断操作,所以它和复杂的精准检索打分相比,开销几乎可以忽略不计。因此,在对相关性要求不高的场景下,如果使用静态质量得分可以满足系统需求,这会是一个非常合适的方案。但如果应用场景对相关性的要求比较高,那我们还得采用其他考虑相关性的非精准检索方案。

2. 根据词频得分排序截断


既然说到了相关性,就必须要提到词频了。我们在上一讲说过,词频记录了一个关键词在文档中出现的次数,可以代表关键词在文档中的重要性。而且,词频的计算是在索引构建的时候,也就是在离线环节完成的,并且它还可以直接存储在 posting list 中。

这就给了我们一个启发,我们可以考虑使用词频来对 posting list 中的文档进行截断。具体该怎么做呢?我们可以像使用静态质量得分一样,直接使用词频的值降序排序 posting list 吗?你可以先自己想一想,然后和我一起分析。

假设,搜索词中只有一个关键词,那我们只需要查出该关键词对应的 posting list,截取前 k 个结果就可以了。这时候,这个方法是可以正常工作的。

但是如果搜索词中有两个关键词 A 和 B,就可能出现这么一种情况:文档 1 中出现了 2 次关键词 A,1 次关键词 B;文档 2 中出现了 1 次关键词 A,2 次关键词 B。那么,在关键词 A 的 posting list 中,文档 1 的分数是 2,文档 2 的分数是 1,文档 1 排在文档 2 前面。但是在关键词 B 的 posting list 中,文档 2 的分数是 2,文档 1 的分数是 1,文档 2 排在文档 1 前面。

这个时候,文档 1 和文档 2 在不同的 posting list 中的排序是不同的,因此,我们无法使用归并排序的方法将它们快速合并和截断。

既然问题出在排序上,那我们能否既用上词频的分值,又保持 ID 有序呢?有这么一个解决思路,就是对 posting list,我们先根据词频大小选出远多于 k 的前 r 个结果,然后将这 r 个结果按文档 ID 排序,这样就兼顾了相关性和快速归并截断的问题。这种根据某种权重将 posting list 中的元素进行排序,并提前截取 r 个最优结果的方案,就叫作 胜者表

胜者表的优点在于,它的排序方案更加灵活。比如说,我可以同时结合词频和静态质量得分进行排序(比如说权重 = 词频 + 静态质量得分),这样就同时考虑了相关性和结果质量两个维度。然后,我们对于每个 posting list 提前截断 r 个结果,再按文档 ID 排序即可。

但是有一点需要注意,胜者表的提前截断是有风险的,它可能会造成归并后的结果不满 k 个。比如说,文档 1 同时包含关键词 A 和 B,但它既不在关键词 A 的前 r 个结果中,也不在关键词 B 的前 r 个结果中,那它就不会被选出来。在极端情况下,比如,关键词 A 的前 r 个结果都是仅包含 A 的文档,而关键词 B 的前 r 个结果都是仅包含 B 的文档,那关键词 A 和 B 的前 r 个结果的归并结果就是空的!这就会造成检索结果的丢失。

3. 使用分层索引


对于胜者表可能丢失检索结果的问题,我们有一种更通用的解决方案:分层索引。我们可以同时考虑相关性和结果质量,用离线计算的方式先给所有文档完成打分,然后将得分最高的 m 个文档作为高分文档,单独建立一个高质量索引,其他的文档则作为低质量索引。高质量索引和低质量索引的 posting list 都可以根据静态质量得分来排序,以方便检索的时候能快速截断。那具体是怎么检索的呢?我们一起来看看。

在实际检索的时候,我们会先去高质量索引中查询,如果高质量索引中可以返回的结果大于 k 个,我们直接截取 Top K 个结果返回即可;如果高质量索引中的检索结果不足 k 个,那我们再去低质量索引中查询,补全到 k 个结果,然后终止查询。通过这样的分层索引,我们就能快速地完成 Top K 的检索了。

相比于前面两种优化方案,分层索引是最通用的一种。而且,分层索引还可以看作是一种特殊的索引拆分,它可以和我们前面学过的索引拆分技术并存。比如说,对于高质量索引和低质量索引,我们还可以通过文档拆分的方式,将它们分为多个索引分片,使用分布式技术来进一步加速检索。

到这里,非精准 Top K 检索的三种实现方法我们都讲完了。总结来说,这些方法都是把非精准 Top K 检索应用在了离线环节,实际上,非精准 Top K 检索的思想还可以拓展应用到在线环节。也就是说,我们还能在倒排检索结束后,精准打分排序前,插入一个非精准打分环节,让我们能以较低的代价,快速过滤掉大部分的低质量结果,从而降低最终进行精准打分的性能开销。

除此之外,我还想补充一点。我们说的「非精准打分」和「精准打分」其实是相对的。这怎么理解呢?

举个例子,如果我们的精准打分环节采用的是传统的机器学习打分方式,如逻辑回归、梯度下降树等。那非精准打分环节就可以采用相对轻量级的打分方案,比如说采用 TF-IDF 方案,甚至是 BM25 方案等。而如果精准打分环节采用的是更复杂的深度学习的打分方式,比如使用了 DNN 模型,那么相对来说,非精准打分环节就可以采用逻辑回归这些方案了。

所以说,无论非精准打分的方案是什么,只要和精准打分相比,能使用更小的代价,快速减少检索范围,这就足够了。而这也是在前面多次出现过的检索加速的核心思想。

相关文章
|
5天前
|
存储 JavaScript 前端开发
JavaScript基础
本节讲解JavaScript基础核心知识:涵盖值类型与引用类型区别、typeof检测类型及局限性、===与==差异及应用场景、内置函数与对象、原型链五规则、属性查找机制、instanceof原理,以及this指向和箭头函数中this的绑定时机。重点突出类型判断、原型继承与this机制,助力深入理解JS面向对象机制。(238字)
|
4天前
|
云安全 人工智能 安全
阿里云2026云上安全健康体检正式开启
新年启程,来为云上环境做一次“深度体检”
1579 6
|
6天前
|
安全 数据可视化 网络安全
安全无小事|阿里云先知众测,为企业筑牢防线
专为企业打造的漏洞信息收集平台
1322 2
|
5天前
|
缓存 算法 关系型数据库
深入浅出分布式 ID 生成方案:从原理到业界主流实现
本文深入探讨分布式ID的生成原理与主流解决方案,解析百度UidGenerator、滴滴TinyID及美团Leaf的核心设计,涵盖Snowflake算法、号段模式与双Buffer优化,助你掌握高并发下全局唯一ID的实现精髓。
346 160
|
5天前
|
人工智能 自然语言处理 API
n8n:流程自动化、智能化利器
流程自动化助你在重复的业务流程中节省时间,可通过自然语言直接创建工作流啦。
406 6
n8n:流程自动化、智能化利器
|
7天前
|
人工智能 API 开发工具
Skills比MCP更重要?更省钱的多!Python大佬这观点老金测了一周终于懂了
加我进AI学习群,公众号右下角“联系方式”。文末有老金开源知识库·全免费。本文详解Claude Skills为何比MCP更轻量高效:极简配置、按需加载、省90% token,适合多数场景。MCP仍适用于复杂集成,但日常任务首选Skills。推荐先用SKILL.md解决,再考虑协议。附实测对比与配置建议,助你提升效率,节省精力。关注老金,一起玩转AI工具。
|
14天前
|
机器学习/深度学习 安全 API
MAI-UI 开源:通用 GUI 智能体基座登顶 SOTA!
MAI-UI是通义实验室推出的全尺寸GUI智能体基座模型,原生集成用户交互、MCP工具调用与端云协同能力。支持跨App操作、模糊语义理解与主动提问澄清,通过大规模在线强化学习实现复杂任务自动化,在出行、办公等高频场景中表现卓越,已登顶ScreenSpot-Pro、MobileWorld等多项SOTA评测。
1542 7
|
4天前
|
Linux 数据库
Linux 环境 Polardb-X 数据库 单机版 rpm 包 安装教程
本文介绍在CentOS 7.9环境下安装PolarDB-X单机版数据库的完整流程,涵盖系统环境准备、本地Yum源配置、RPM包安装、用户与目录初始化、依赖库解决、数据库启动及客户端连接等步骤,助您快速部署运行PolarDB-X。
246 1
Linux 环境 Polardb-X 数据库 单机版 rpm 包 安装教程
|
8天前
|
人工智能 前端开发 API
Google发布50页AI Agent白皮书,老金帮你提炼10个核心要点
老金分享Google最新AI Agent指南:让AI从“动嘴”到“动手”。Agent=大脑(模型)+手(工具)+协调系统,可自主完成任务。通过ReAct模式、多Agent协作与RAG等技术,实现真正自动化。入门推荐LangChain,文末附开源知识库链接。
670 119