七种RAG架构cheat sheet!

简介: RAG 即检索增强生成,是一种结合检索技术和生成模型的人工智能方法。Weaviate厂商给出了七种RAG架构cheat sheet。

RAG 即检索增强生成(Retrieval - Augmented Generation ),是一种结合检索技术和生成模型的人工智能方法。

Weaviate 是一个开源的向量数据库,专为 AI 原生应用设计,能够高效地存储和检索数据对象及其向量嵌入。它结合了语义搜索、结构化过滤和机器学习集成,能够处理跨多种数据类型(如文本、图像等)的复杂查询。

Weaviate 面向的就是RAG使用场景,给出了七种RAG架构cheat sheet。

RAG 分为两个阶段:索引阶段查询阶段,每个阶段都有超多硬核技术加持!💡

索引阶段 📂

  1. Embedding model:嵌入模型,把数据变成低维向量,计算机秒懂!
  2. Generative model:生成模型,文本、图像随便生成,创意无限!
  3. Reranker model:重排序模型,检索结果重新排,相关性拉满!
  4. Vector database:向量数据库,存储向量数据,检索快到飞起!
  5. Prompt template:提示模板,指导模型生成特定格式,输出超精准!

查询阶段 🔍

  1. Multimodal embedding model:多模态嵌入模型,图像、文本全搞定,统一嵌入表示!
  2. Multimodal generative model:多模态生成模型,多种数据结合生成,输出超丰富!
  3. LLM Graph Generator:大语言模型图生成器,生成图结构数据,复杂关系轻松搞定!
  4. Graph database:图数据库,存储图结构数据,图查询操作超高效!
  5. AI agent:AI 代理,代表用户执行任务,决策交互超智能!

Weaviate 的 7 种 RAG 架构 🧩

以下是Weaviate官方总结的七种RAG(Retrieval-Augmented Generation)架构的核心要点速查表,涵盖核心原理、优缺点及适用场景。

20250110093655 (1).png

1. Naive RAG(朴素RAG)

  • 核心原理:基于文档分块检索,直接将检索结果输入生成模型生成答案,包含检索模块(向量/关键词搜索)和生成模块(LLM)。
  • 优点:简单易实现、低延迟、模块化设计。
  • 缺点:检索结果质量不稳定、缺乏上下文整合、易受噪声影响。
  • 适用场景:基础问答、小型知识库、对精度要求不高的场景。

2. Retrieve-and-Rerank RAG(检索与重排序RAG)

  • 核心原理:在Naive RAG基础上增加重排序模块(如Cross-Encoder或BERT模型),优化检索结果相关性。
  • 优点:提升生成质量、减少噪声干扰、支持领域优化(如法律/医学)。
  • 缺点:计算成本增加、依赖重排序模型性能。
  • 适用场景:高精度问答(法律文档、技术文档)。

3. Multimodal RAG(多模态RAG)

  • 核心原理:支持多模态数据(文本、图像、视频等)的检索与生成,利用跨模态模型(如CLIP)对齐语义。
  • 优点:信息表达丰富、支持跨模态查询(如图像问答)、增强上下文理解。
  • 缺点:实现复杂、计算资源消耗高、需多模态训练数据。
  • 适用场景:电商推荐、医疗影像分析、多模态内容生成。

4. Graph RAG(图RAG)

  • 核心原理:利用图数据库(如Neo4j)存储实体关系,通过图查询实现多跳推理和语义关联检索。
  • 优点:捕捉复杂关系(因果、层级)、支持动态更新、增强推理能力。
  • 缺点:图构建和维护成本高、依赖图数据质量。
  • 适用场景:知识图谱问答、科研文献分析、复杂关系推理(医学/法律)。

5. Hybrid RAG(混合RAG)

  • 核心原理:结合多种检索策略(如向量检索+关键词检索+图检索),融合结果后生成答案。
  • 优点:检索覆盖率高、灵活适配多场景、抗噪声能力强。
  • 缺点:系统复杂度高、需协调多模块权重。
  • 适用场景:知识库质量参差不齐、需多策略互补的场景。

6. Agentic RAG (Router)(路由RAG)

  • 核心原理:通过智能路由器(基于LLM)动态分配查询至不同模块(如专用知识库、API等)。
  • 优点:动态负载均衡、支持多数据源、模块扩展性强。
  • 缺点:路由策略设计复杂、多模块整合难度高。
  • 适用场景:多任务类型(跨API/数据库)、企业知识管理。

7. Agentic RAG (Multi-Agent)(多智能体RAG)

  • 核心原理:多个智能体协同处理任务(如并行检索数据库、搜索引擎、邮件系统),整合结果生成答案。
  • 优点:高度模块化、并行处理效率高、支持复杂任务自动化。
  • 缺点:代理协作机制复杂、通信开销大。
  • 适用场景:超大规模任务(多轮对话、跨工具协作)。

对架构选择的建议

  1. 基础场景:优先选择Naive RAGRetrieve-and-Rerank,平衡速度与精度。
  2. 多模态需求:采用Multimodal RAG,结合CLIP等跨模态模型。
  3. 复杂关系推理Graph RAGHybrid RAG更适合知识图谱和结构化数据。
  4. 动态任务分配Agentic RAG系列适用于多数据源、多工具集成的企业级应用。

扩展工具与资源

  • Weaviate部署:通过Docker快速部署并集成LangChain实现RAG流程。
  • 优化技巧:使用混合搜索(alpha参数调优)、查询重写(Query Rewriting)、自剪枝(Autocut)提升生成质量。
  • 开源框架:参考TrustRAG项目实现模块化设计。

Spring Boot 集成 LLM 的 RAG(Retrieval-Augmented Generation)架构框架、技术选型与核心工作流

Springboot使用RAG的流程一般是这样的:

用户请求 → Spring Boot 应用 → 检索模块(Weaviate) → 生成模块(LLM) → 返回回答  
           ↑  
          数据预处理(分块/向量化) → 向量数据库

RAG 系统分为三大核心模块

  1. 数据预处理模块

    • 负责文档加载、解析(PDF/Word/HTML等)、分块(按段落、句子或固定长度)和向量化。
    • 支持多模态数据(文本、图像等)的分块和向量生成。
  2. 检索模块

    • 基于向量数据库(如 Weaviate)实现语义搜索,支持混合检索(向量+关键词)。
    • 可选重排序(Reranking)模块优化检索结果。
  3. 生成模块

    • 集成大语言模型(LLM),将检索到的上下文与用户查询结合生成最终回答。
    • 支持多种 LLM 服务(如 OpenAI、本地部署的 Llama 3 等)。

核心工作流

1. 数据准备阶段

  1. 文档解析:从本地文件、数据库或 API 加载原始文档。
  2. 分块处理:根据语义或固定长度切割文档,保留元数据(来源、时间等)。
  3. 向量生成:调用嵌入模型(如 OpenAI text-embedding-3-small)生成块向量。
  4. 向量存储:将向量与原始文本存入向量数据库,建立索引。

2. 用户查询阶段

  1. 查询向量化:将用户输入转换为向量。
  2. 上下文检索
    • 通过向量数据库检索 Top-K 相关文档块。
    • 可选重排序模型(如 Cohere Rerank)优化结果。
  3. 上下文过滤:基于阈值(如相似度 > 0.7)过滤低质量结果。

3. 回答生成阶段

  1. Prompt 构建:将用户查询与检索结果组合为 LLM 输入,例如:

    “基于以下上下文回答问题:  
    [上下文1] ...  
    [上下文2] ...  
    问题:{用户输入}”
    
  2. 模型调用:发送 Prompt 至 LLM,配置生成参数(温度值、最大长度等)。

  3. 结果后处理:过滤敏感内容、格式化输出(如 Markdown 表格、列表)。

技术选型建议

1. 向量数据库

  • Weaviate:支持多模态、内置混合搜索(BM25 + 向量)、低延迟,适合复杂查询场景。
  • Qdrant:轻量级、高吞吐量,适合中小规模部署。
  • Milvus:分布式架构,适合超大规模数据(亿级向量)。

2. LLM 服务

  • 云端 API:OpenAI GPT、DeepSeek。
  • 本地部署:Ollama、vLLM。

3. 数据分块策略

  • 固定长度分块:简单但可能破坏语义(如 512 字符)。
  • 语义分块:基于 NLP 模型(如 Sentence-BERT)识别段落边界。
  • 多粒度分块:结合粗粒度(文档级)和细粒度(段落级)提升召回率。

4. 检索策略

  • 纯向量检索:适合语义相关性强的场景(如问答)。
  • 混合检索:结合向量与关键词(BM25),提升多样性和覆盖率。
  • 图增强检索:集成知识图谱(如 Neo4j)支持多跳推理。

扩展与优化方向

  1. 性能优化
    • 异步处理分块和向量生成。
    • 缓存高频查询结果(如 Redis)。
  2. 质量提升
    • 引入自检机制(Self-RAG)让 LLM 评估自身回答的可靠性。
    • 动态调整检索范围(如小范围精确检索 + 大范围兜底检索)。
  3. 安全与合规
    • 敏感信息过滤(如 PII 数据脱敏)。
    • 审计日志记录查询和生成过程。

关于作者

开发|界面|引擎|交付|副驾——重写全栈法则:AI原生的倍速造应用流

来自全栈程序员nine的探索与实践,持续迭代中。(🛰️codetrend)

#RAG架构 #Weaviate #AI技术 #技术分享 #多模态 #知识图谱 #智能代理

目录
相关文章
|
18天前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
阿里云与企业共筑容器供应链安全
171341 14
|
21天前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
随着云计算和DevOps的兴起,容器技术和自动化在软件开发中扮演着愈发重要的角色,但也带来了新的安全挑战。阿里云针对这些挑战,组织了一场关于云上安全的深度访谈,邀请了内部专家穆寰、匡大虎和黄竹刚,深入探讨了容器安全与软件供应链安全的关系,分析了当前的安全隐患及应对策略,并介绍了阿里云提供的安全解决方案,包括容器镜像服务ACR、容器服务ACK、网格服务ASM等,旨在帮助企业构建涵盖整个软件开发生命周期的安全防护体系。通过加强基础设施安全性、技术创新以及倡导协同安全理念,阿里云致力于与客户共同建设更加安全可靠的软件供应链环境。
150298 32
|
29天前
|
弹性计算 人工智能 安全
对话 | ECS如何构筑企业上云的第一道安全防线
随着中小企业加速上云,数据泄露、网络攻击等安全威胁日益严重。阿里云推出深度访谈栏目,汇聚产品技术专家,探讨云上安全问题及应对策略。首期节目聚焦ECS安全性,提出三道防线:数据安全、网络安全和身份认证与权限管理,确保用户在云端的数据主权和业务稳定。此外,阿里云还推出了“ECS 99套餐”,以高性价比提供全面的安全保障,帮助中小企业安全上云。
201975 15
对话 | ECS如何构筑企业上云的第一道安全防线
|
7天前
|
机器学习/深度学习 自然语言处理 PyTorch
深入剖析Transformer架构中的多头注意力机制
多头注意力机制(Multi-Head Attention)是Transformer模型中的核心组件,通过并行运行多个独立的注意力机制,捕捉输入序列中不同子空间的语义关联。每个“头”独立处理Query、Key和Value矩阵,经过缩放点积注意力运算后,所有头的输出被拼接并通过线性层融合,最终生成更全面的表示。多头注意力不仅增强了模型对复杂依赖关系的理解,还在自然语言处理任务如机器翻译和阅读理解中表现出色。通过多头自注意力机制,模型在同一序列内部进行多角度的注意力计算,进一步提升了表达能力和泛化性能。
|
11天前
|
存储 人工智能 安全
对话|无影如何助力企业构建办公安全防护体系
阿里云无影助力企业构建办公安全防护体系
1257 11
|
13天前
|
机器学习/深度学习 自然语言处理 搜索推荐
自注意力机制全解析:从原理到计算细节,一文尽览!
自注意力机制(Self-Attention)最早可追溯至20世纪70年代的神经网络研究,但直到2017年Google Brain团队提出Transformer架构后才广泛应用于深度学习。它通过计算序列内部元素间的相关性,捕捉复杂依赖关系,并支持并行化训练,显著提升了处理长文本和序列数据的能力。相比传统的RNN、LSTM和GRU,自注意力机制在自然语言处理(NLP)、计算机视觉、语音识别及推荐系统等领域展现出卓越性能。其核心步骤包括生成查询(Q)、键(K)和值(V)向量,计算缩放点积注意力得分,应用Softmax归一化,以及加权求和生成输出。自注意力机制提高了模型的表达能力,带来了更精准的服务。
|
12天前
|
人工智能 自然语言处理 程序员
通义灵码2.0全新升级,AI程序员全面开放使用
通义灵码2.0来了,成为全球首个同时上线JetBrains和VSCode的AI 程序员产品!立即下载更新最新插件使用。
1450 25
|
11天前
|
消息中间件 人工智能 运维
1月更文特别场——寻找用云高手,分享云&AI实践
我们寻找你,用云高手,欢迎分享你的真知灼见!
877 42
1月更文特别场——寻找用云高手,分享云&AI实践
|
2天前
|
存储 人工智能 分布式计算
湖仓实时化升级 :Uniflow 构建流批一体实时湖仓
本文整理自阿里云产品经理李昊哲在Flink Forward Asia 2024流批一体专场的分享,涵盖实时湖仓发展趋势、基于Flink搭建流批一体实时湖仓及Materialized Table优化三方面。首先探讨了实时湖仓的发展趋势和背景,特别是阿里云在该领域的领导地位。接着介绍了Uniflow解决方案,通过Flink CDC、Paimon存储等技术实现低成本、高性能的流批一体处理。最后,重点讲解了Materialized Table如何简化用户操作,提升数据查询和补数体验,助力企业高效应对不同业务需求。
328 17
湖仓实时化升级 :Uniflow 构建流批一体实时湖仓
|
2天前
|
机器学习/深度学习 自然语言处理
Deepseek开源R1系列模型,纯RL助力推理能力大跃升!
近期Deepseek正式发布 DeepSeek-R1,并同步开源模型权重。DeepSeek-R1 遵循 MIT License,允许用户通过蒸馏技术借助 R1 训练其他模型。