通过阿里云 Milvus 和 Dify 平台构建RAG系统

简介: 本文介绍了如何结合阿里云 Milvus 向量数据库与低代码 AI 平台 Dify,快速构建企业级检索增强生成(RAG)应用。通过该方案,可有效解决大语言模型的知识局限与“幻觉”问题,提升 AI 应用的回答准确性与可靠性。

原理介绍

大语言模型常因知识局限而产生“幻觉”。检索增强生成(RAG)技术通过连接外部知识库,有效解决了这一痛点。要实现高效的RAG,一个强大的向量数据库至关重要。本文将聚焦于阿里云 Milvus,并借助低代码AI平台Dify,向您展示如何将二者无缝结合,快速搭建一个企业级的RAG应用,直观感受向量数据库在解决AI“最后一公里”问题上的核心价值。


阿里云 Milvus 基本介绍

阿里云向量检索服务 Milvus 版是一款全托管向量检索引擎,并确保与开源Milvus的完全兼容性,支持无缝迁移。它在开源版本的基础上增强了可扩展性,能提供大规模AI向量数据的相似性检索服务。凭借其开箱即用的特性、灵活的扩展能力和全链路监控告警,Milvus云服务成为多样化AI应用场景的理想选择,包括多模态搜索、检索增强生成(RAG)、搜索推荐、内容风险识别等。您还可以利用开源的Attu工具进行可视化操作,进一步促进应用的快速开发和部署。


Dify 平台基本介绍

Dify 是开源人工智能应用开发平台,具有低代码的工作流和友好的用户界面的特点,其核心使命是通过将“后端即服务”(Backend-as-a-Service)与“大语言模型运维”(LLMOps)的理念深度融合,来彻底简化和加速AI应用的构建全过程。

作为一个全栈式的解决方案,Dify 在后端层面,提供了稳定可靠的API服务、数据管理等基础设施,让开发者无需从零搭建;在 LLM 运维层面,提供了一个直观的可视化提示词编排界面,让复杂的提示工程变得简单高效。其内置的高质量检索增强生成(RAG)引擎,能够轻松连接企业文档、数据库等私有知识库,让大模型基于特定领域的知识进行回答,有效减少了信息幻觉,并确保答案的准确性和可追溯性。

操作步骤

前提条件

安装与配置Dify

安装 Dify

在开始之前,请确保本地Git、Docker、Docker-Compose 安装完毕。具体操作,请参见 Docker&Docker Compose安装(离线+在线)安装Git


  • 将dify项目通过git命令clone到本地
git clone https://github.com/langgenius/dify.git
  • 进入目录备份.env配置文件
cd dify
cd docker
cp .env.example .env
  • 修改配置文件.env
VECTOR_STORE=milvus
MILVUS_URI=http://YOUR_ALIYUN_MILVUS_ENDPOINT:19530
MILVUS_USER=YOUR_ALIYUN_MILVUS_USER
MILVUS_PASSWORD=YOUR_ALIYUN_MILVUS_PASSWORD

注意

用 Aliyun Milvus 的公网地址替换YOUR_ALIYUN_MILVUS_ENDPOINT

用 Aliyun Milvus 的用户名替换YOUR_ALIYUN_MILVUS_USER

用 Aliyun Milvus 的密码替换YOUR_ALIYUN_MILVUS_PASSWORD

  • 通过docker compose命令启动
docker compose up -d


安装成功验证

  • 启动后访问http://127.0.0.1/ 进入dify的登陆页面,设置管理员账号密码,并登陆进管控台。


设置默认模型

  • 在设置--模型提供商处安装模型供应商,在这里我们选用了通义千问的模型,可以将在百炼平台获取API-KEY 输入,验证绿灯即可。


  • 系统模型设置:将通义千问对应的模型设置到每种模型处。


准备数据集创建知识库

接下来准备测试数据来创建知识库。

  • 在选择数据源处选择“导入已有文本”,可使用milvus官网的中文README作为测试数据源文件

https://github.com/milvus-io/milvus/blob/master/README_CN.md


  • 参考如下配置进行数据源的处理与保存,创建知识库


  • 可以看到数据库已经成功创建,并且索引创建完毕


验证向量检索是否成功

  • 通过docker logs 查看,可以看到dify日志里显示上传成功


  • 访问集群Attu Manager控制台,可以看到对应的collection 数据已导入


验证RAG效果

  • 在应用模板中创建一个knowledge retreival + chatbot作为基础模板


  • 修改knowledge retreival节点,设置前步骤的知识库


  • 修改chatbot节点,设置语言大模型,这里使用qwen-max大模型


  • 设置好后点击发布,然后点运行进入测试界面


  • 这里输入一个与知识库中内容相关的问题,可以得到答案



立即体验

如果您想体验阿里云Milvus的相关能力,欢迎在阿里云官网搜索向量检索服务Milvus版进行体验。

产品新用户也可免费领取1个月试用资格

此外,阿里云为了回馈新老用户,推出了重大优惠

阿里云向量检索服务 Milvus 版  限时年付5折!购买地址

相关文章
|
2月前
|
人工智能 API 开发者
用Dify搭建自动化工作流,我每天节省了3小时
作为一名开发者,我曾深陷重复工作。直到用Dify搭建AI自动化工作流,每天节省3小时。本文分享如何通过可视化编排实现客服、文档、代码的智能自动化,附部署、优化与避坑实战经验。
用Dify搭建自动化工作流,我每天节省了3小时
|
5月前
|
人工智能 数据可视化 安全
【保姆级教程】Dify+DeepSeek+MCP三件套:零门槛打造AI应用流水线,手把手实战教学!
本教程手把手教你用Dify+DeepSeek+MCP三件套零门槛搭建AI应用流水线:Dify提供可视化工作流编排,DeepSeek贡献128K长文本国产最强模型,MCP实现弹性部署。这套组合兼具低代码开发、高性能推理和灵活运维三大优势,助你快速落地企业级AI解决方案。
|
4月前
|
人工智能 自然语言处理 安全
Milvus x n8n :自动化拆解Github文档,零代码构建领域知识智能问答
本文介绍了在构建特定技术领域问答机器人时面临的四大挑战:知识滞后性、信息幻觉、领域术语理解不足和知识库维护成本高。通过结合Milvus向量数据库和n8n低代码平台,提出了一种高效的解决方案。该方案利用Milvus的高性能向量检索和n8n的工作流编排能力,构建了一个可自动更新、精准回答技术问题的智能问答系统,并介绍了部署过程中的可观测性和安全性实现方法。
|
9月前
|
弹性计算 监控 并行计算
如何在阿里云上部署满血版DeepSeek
在阿里云部署“满血版”DeepSeek模型,需合理配置硬件与软件环境。首先注册阿里云账号并申请GPU计算型ECS实例(推荐V100/A10/A100),配置安全组规则。接着安装NVIDIA驱动、CUDA及Python依赖库,下载DeepSeek模型权重并克隆代码仓库。通过FastAPI编写推理接口,使用Uvicorn运行服务,支持反向代理与HTTPS配置。最后优化显存、监控性能,确保高效稳定运行。
如何在阿里云上部署满血版DeepSeek
|
5月前
|
监控 数据可视化 安全
从零开始学 Dify:搭建你的第一个 LLM 应用平台
Dify(Do It For You)是一个开源的 LLMOps 平台,专注于缩短 AI 原型与生产应用之间的距离。它通过「可视化 + API 优先」的方式,帮助开发者快速构建、测试、监控并上线基于大型语言模型(LLM)的解决方案,支持从聊天机器人、检索增强生成(RAG),再到代理 Agent 的全功能覆盖。
|
5月前
|
分布式计算 Serverless OLAP
实时数仓Hologres V3.1版本发布,Serverless型实例从零开始构建OLAP系统
Hologres推出Serverless型实例,支持按需计费、无需独享资源,适合新业务探索分析。高性能查询内表及MaxCompute/OSS外表,弹性扩展至512CU,性能媲美主流开源产品。新增Dynamic Table升级、直读架构优化及ChatBI解决方案,助力高效数据分析。
实时数仓Hologres V3.1版本发布,Serverless型实例从零开始构建OLAP系统
|
4月前
|
自然语言处理 监控 机器人
Dify入门指南(5):从零开始构建智能客服机器人(保姆级教程)
无需编程,只需4步,10分钟用Dify搭建智能客服!文末附进阶技巧:数据分析优化、多轮对话设计及人工接管配置,助你打造高效客服助手。

热门文章

最新文章