基于FC×RDS打造AI私人助理心得分享

简介: 本次分享将教你如何基于ChatGLM6B大语言模型,搭建AI知识库问答应用,支持投喂PDF/TXT/HTML等文件、URL类型的资料,轻松定制一个你的私人AI助理。

一,领取试用

部署AI私人助理需要用到三个产品,分别是 RDS PostgreSQL Serverless函数计算FC文件存储NAS,可以点击连接前往立即试用。

image.png

开通RDS试用需要先进行相应角色权限的开通,如下:

image.png

点击对应的按钮“创建服务关联角色”便可实现创建。如下:

image.png

二、部署应用

产品试用开通成功后,就可以开始基于函数计算FC创建应用了。前往函数计算控制台。在左侧导航栏中,单击应用。如下:

image.png

应用页面,单击人工智能分类,选择AI大语言模型,单击立即创建。如下:

image.png

创建应用页面,部署类型选择直接部署。如下:

image.png

高级配置中,选择应用,这里选择pg-chatglm2-6b-webu,部署一个带向量数据库的私有知识问答应用。大语言模型选择chatglm2-6b-int4。如下:

image.png

首次部署应用,按照提示使用RAM角色ARN。完成授权。

完成配置后,单击创建并部署默认环境。如下:

image.png

部署大语言模型和向量数据库的相关应用需要函数计算、向量计算与存储由RDS PostgreSQL提供支持,勾选确认已经知道部署和使用中的收费项目,单击同意并继续部署。如下:

image.png

等待完成部署,直到部署状态显示部署成功,单击左侧箭头返回基本信息页面。如下:

image.png

在基本信息页面,单击访问域名,进入域名。如下:

image.png

复制并保存账号密码连接信息(该账号密码连接信息仅提示一次,再次登陆该页面不会再提示)以便下次登陆实验数据库进行体验。如下:

image.png

AI助手到这就完成部署了,接下来就可以体验AI智能助手,页面提供了LLM和LLM+RDS PostgreSQL(向量数据库)对比体验。如下:

image.png

支持导入自定义知识库文件后进行提问,感受基于LLM+向量数据库搭建个人AI助手的魅力。

  • 支持导入知识库文件,支持PDF、MD、TXT、HTML和 HTM格式文件。
  • 支持导入知识库URL。

以文件导入为例,支持上传和拖拽。如下:

image.png

以导入知识库URL为例,下面是杭州亚运会百度百科链接。

image.png

文件上传过程会进行embedding转化,请耐心等待。输入与文档相关的问题,对比区别(再次确认导入资料成功,否则无法展示相关答案)。如下:

image.png

问答30次之后,AI助手的初步体验就到此。以下步骤需要切换至个人数据库,开始使用您个人账号上的RDS PostgreSQL资源。单击右上角的已登录,切换至个人数据库。如下:

image.png

前往RDS管理控制台,创建账号及数据库信息。找到试用的RDS PostgreSQL实例,点击实例名进入实例详情页。如下

image.png

实例详情页,点击账号管理,单击创建账号,如下:

image.png

分别输入账号、类型、密码,点击确定。如下:

image.png

单击数据库管理,创建数据库并关联账号。如下:

image.png

输入数据库名称,并关联上面创建的账号。如下:

image.png

登录数据库对话框中,填写RDS PostgreSQL数据库的配置信息,如下:

image.png

数据库登录成功后,右上角变为数据库已登录状态,对话框按钮无剩余次数显示,右侧导入记录无文件数量限制。至此,您可以基于自己的数据库构建基于LLM的专属知识库。如下:

image.png

至此,一个基于FC×RDS打造的AI私人助理便完成部署了。接下来就可以开启无限体验之旅。

三、心得分享

在使用FC×RDS PostgreSQL的过程中,我发现它具有以下几个优点:

  1. 高性能:FC×RDS PostgreSQL采用了先进的计算和存储技术,可以快速处理大量的数据。这对于构建AI知识库问答应用来说非常重要,因为我们需要在短时间内为用户提供准确的答案。
  2. 易于使用:FC×RDS PostgreSQL提供了简单的API接口,使得我们可以轻松地将其集成到我们的应用中。此外,它还支持多种编程语言,如Python、Java等,这使得我们的开发工作变得更加便捷。
  3. 安全可靠:作为一个托管式的数据库服务,RDS为我们的数据提供了全方位的保护。它可以自动备份数据,确保我们的数据不会丢失。同时,它还提供了多种安全策略,如防火墙、访问控制等,以保护我们的数据免受未经授权的访问。
  4. 可扩展性:随着我们的应用不断发展,数据量也会不断增加。FC×RDS PostgreSQL具有很强的可扩展性,可以帮助我们轻松应对这种挑战。此外,它还支持多种部署方式,如单机、主备等,以满足我们不同的需求。

在体验应用中,我发现FC×RDS PostgreSQL可以帮助我们解决很多问题。例如,在我们的AI知识库问答应用中,用户可能会提出一些模糊的问题,如“这个产品适合什么年龄段的人群使用?”通过使用FC×RDS PostgreSQL,我们可以快速地找到与这个问题相关的信息,并将答案呈现给用户。这不仅可以提高用户的满意度,还可以降低我们的运营成本。

除了在问答应用中使用外,我还发现FC×RDS PostgreSQL在其他方面也有很多应用场景。例如,在推荐系统中,我们可以利用FC×RDS PostgreSQL对用户的兴趣进行模糊匹配,从而为他们推荐更符合他们需求的内容。在自然语言处理领域,FC×RDS PostgreSQL也可以帮助我们快速地处理大量的文本数据,从而提高我们的工作效率。

通过使用ChatGLM6B大语言模型搭建AI知识库问答应用,我深深地体会到了AI的魅力和潜力。虽然过程中遇到了一些挑战,但也收获了许多宝贵的经验和知识。我希望我的分享能对你有所帮助,也期待看到更多的AI应用在实际生活中的应用和发展。

相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
目录
相关文章
|
2月前
|
机器学习/深度学习 人工智能 Serverless
吉利汽车携手阿里云函数计算,打造新一代 AI 座舱推理引擎
当前吉利汽车研究院人工智能团队承担了吉利汽车座舱 AI 智能化的方案建设,在和阿里云的合作中,基于星睿智算中心 2.0 的 23.5EFLOPS 强大算力,构建 AI 混合云架构,面向百万级用户的实时推理计算引入阿里云函数计算的 Serverless GPU 算力集群,共同为智能座舱的交互和娱乐功能提供大模型推理业务服务,涵盖的场景如针对模糊指令的复杂意图解析、文生图、情感 TTS 等。
|
2月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
469 30
|
2月前
|
SQL 人工智能 关系型数据库
AI Agent的未来之争:任务规划,该由人主导还是AI自主?——阿里云RDS AI助手的最佳实践
AI Agent的规划能力需权衡自主与人工。阿里云RDS AI助手实践表明:开放场景可由大模型自主规划,高频垂直场景则宜采用人工SOP驱动,结合案例库与混合架构,实现稳定、可解释的企业级应用,推动AI从“能聊”走向“能用”。
889 39
AI Agent的未来之争:任务规划,该由人主导还是AI自主?——阿里云RDS AI助手的最佳实践
|
2月前
|
人工智能 运维 安全
加速智能体开发:从 Serverless 运行时到 Serverless AI 运行时
在云计算与人工智能深度融合的背景下,Serverless 技术作为云原生架构的集大成者,正加速向 AI 原生架构演进。阿里云函数计算(FC)率先提出并实践“Serverless AI 运行时”概念,通过技术创新与生态联动,为智能体(Agent)开发提供高效、安全、低成本的基础设施支持。本文从技术演进路径、核心能力及未来展望三方面解析 Serverless AI 的突破性价值。
|
3月前
|
存储 人工智能 Serverless
函数计算进化之路:AI 应用运行时的状态剖析
AI应用正从“请求-响应”迈向“对话式智能体”,推动Serverless架构向“会话原生”演进。阿里云函数计算引领云上 AI 应用 Serverless 运行时技术创新,实现性能、隔离与成本平衡,开启Serverless AI新范式。
489 12
|
3月前
|
人工智能 机器人 Serverless
安诺机器人 X 阿里云函数计算 AI 咖啡印花解决方案
当云计算遇见具身智能,AI咖啡开启零售新体验。用户通过手机生成个性化图像,云端AI快速渲染,机器人精准复刻于咖啡奶泡之上,90秒内完成一杯可饮用的艺术品。该方案融合阿里云FunctionAI生图能力与安诺机器人高精度执行系统,实现AIGC创意到实体呈现的闭环,为线下零售提供低成本、高互动、易部署的智能化升级路径,已在商场、机场、展馆等场景落地应用。
安诺机器人 X 阿里云函数计算 AI 咖啡印花解决方案
|
3月前
|
人工智能 Serverless API
函数计算的云上计费演进:从请求驱动到价值驱动,助力企业走向 AI 时代
函数计算计费方式历经三阶段演进:从按请求计费,到按活跃时长毫秒级计费,再到按实际资源消耗分层计费。背后是资源调度、安全隔离与开发体验的持续优化。尤其在AI时代,低负载减免、会话亲和等技术让计费更贴近真实价值,推动Serverless向“按需使用、按量付费”终极目标迈进。
|
3月前
|
人工智能 Serverless API
函数计算的云上计费演进:从请求驱动到价值驱动,助力企业走向 AI 时代
在 AI 时代,函数计算一直坚持走向“让开发者只关心业务逻辑,云厂商自动完成一切资源管理与调度”的愿景,最终让计算像水、电一样随时可得、按实际使用价值付费。
|
3月前
|
存储 人工智能 安全
函数计算进化之路:AI Sandbox 新基座
AI Agent 的兴起催生了一种全新的、独特的云工作负载类型。它既不完全符合传统 IaaS(对于零散、突发的使用场景而言过于昂贵和笨重)的模式,也打破了第一代 FaaS(函数即服务,因其无状态和较弱的隔离保证而无法满足需求)的设计假想。市场迫切需要一种新型运行时——它必须兼具虚拟机的状态化和隔离性与 Serverless 的经济性和弹性。这正是阿里云函数计算(Function Compute, FC)架构演进所要解决的核心问题。
|
3月前
|
存储 人工智能 安全
企业级 AI Agent 开发指南:基于函数计算 FC Sandbox 方案实现类 Chat Coding AI Agent
通过 Sandbox 与 Serverless 的深度融合,AI Agent 不再是“黑盒”实验,而是可被企业精准掌控的生产力工具。这种架构不仅适配当前 AI Agent 的动态交互特性,更为未来多模态 Agent、跨系统协作等复杂场景提供了可复用的技术底座。若您的企业正面临 AI Agent 规模化落地的挑战,不妨从 Sandbox 架构入手,结合函数计算 FC 的能力,快速验证并构建安全、高效、可扩展的 AI 应用系统。