基于函数计算一键部署 AI 陪练,快速打造你的专属口语对练伙伴

简介: 基于函数计算一键部署 AI 陪练,快速打造你的专属口语对练伙伴

AI 口语学习涵盖发音训练、对话交流、即时反馈、个性化场景模拟和流利度提升等。本方案以英语口语学习的场景为例,利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。

用户可以与 AI 智能体进行中英文实时对话,获得个性化学习体验。应用预设了不同难度等级和场景模拟,可以开展日常交流、商务会议、旅游问路等情境下的对话交流,帮助用户在实际场景下灵活运用语言技能。此外,AI 智能体可以根据用户的对话表现进行即时反馈,提供改正建议。

基于函数计算部署 AI 智能陪练有奖体验中!两步完成活动任务,即可获得精美毛毯。

立即参与:https://developer.aliyun.com/topic/aitrainingcompanion


适用客户




Cloud Native

  • 期望通过 AI 实现个性化学习指导和即时反馈的教育平台
  • 致力于构建 AI 智能体模拟一对一真人对话练习的培训机构

使用产品




Cloud Native

  • 大模型服务平台百炼
  • 智能媒体服务
  • 视频直播
  • 函数计算

架构与部署




Cloud Native


方案概览

本方案利用函数计算 FC 部署 Web 应用,结合智能媒体服务(AI 实时互动)的 AI 智能体和百炼工作流应用,实现英语口语陪练。

按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。

本方案的技术架构包括以下云服务:

  • 函数计算 FC:用于部署应用程序。
  • 大模型服务平台百炼:一站式的大模型开发及应用构建平台。
  • 智能媒体服务 IMS:提供音频处理、智能体互动、语音生成等能力
  • 实时音视频 ARTC:用来创建实时音频应用,提供 AI 智能体和用户的实时音频通话能力。


部署教程

创建百炼工作流应用

百炼工作流应用可以将复杂的任务拆分成一系列有序执行的步骤,以降低系统复杂度。通过将参数以变量的形式嵌入到工作流的大模型提示词中,可以实现不同难度等级和场景的模拟。

1. 在阿里百炼大模型服务平台[1]左侧导航栏中,单击我的应用[2]2. 单击新增应用,选择工作流应用,单击创建对话型工作流,进入工作流配置页面。 3. 进入页面后,开始节点会预设两个参数,更改为 difficulty 和 scene,对应描述分别更改为难度和场景。 4. 将左侧大模型节点拖入画布配置页面,将开始节点连接到大模型节点,并配置对应参数。

参数 配置对应参数
模型配置 通义千问-Max
温度系数 默认值
最长回复长度 1024
开启搜索 关闭
System Prompt

警告

配置完成后:
User Prompt ${sys.query}
上下文 默认开启
结果返回 开启

5. 将大模型节点连接到结束节点,并配置对应参数。

参数 配置对应参数
输出模式 选择文本输出
输入 输入/插入变量。选择大模型_1的result
结果返回 关闭

6. 点击右上角发布按钮。

创建实时音视频通信应用

实时音视频 ARTC 是智能体和用户之间建立起实时音频通信的基础,实现 AI 实时互动需要准备一个 ARTC 应用,参照以下步骤开通并创建 ARTC 应用。1. 开通视频直播[3]:计费方式选择按使用流量计费,点击右下角立即开通。 2. 在视频云直播控制台[4]左侧导航栏单击直播+ > 实时音视频 > 应用管理。3. 单击创建应用。 4. 填写自定义的实例名称,勾选服务协议后,点击立即购买。 5. 提示开通成功后,刷新应用管理页面,即可查看新建的实时音视频应用。

创建AI智能体

实时工作流是一种预先定义的流程模板,用于自动化处理 ARTC 音频流。AI 智能体则是在 AI 实时互动解决方案中定义的高仿真用户。

一、开通智能媒体服务(如果已开通,跳过此步骤)

1. 登录智能媒体服务控制台[5],点击立即开通按钮。 2. 在服务开通页面,勾选服务协议,点击立即开通按钮。 3. 点击服务授权按钮。 4. 在服务授权页面,点击同意授权按钮。

二、创建实时工作流

1. 登录 AI 实时互动-工作流管理[6],单击创建工作流模板。

说明:AI 英语口语陪练目前在国内可选地域包括杭州、上海、北京和深圳。请您根据自身的实际需求,先在导航栏中选择相应的地域,然后再继续进行创建操作。本方案以下所有演示操作地域均采用华东1(杭州)。


2. 配置基础信息:可以自定义工作流名称为 Workflow-English。3. 编辑 STT 语音转文字节点。 在弹出的节点配置页面,修改语言模型为中英。 4. 编辑 LLM 大语言模型节点,在弹出的节点配置页面,模型选择这一项选择对接阿里百炼平台,百炼类型选择应用中心。 a. 打开百炼控制台[7],点击左侧导航栏我的应用,找到目标应用并复制应用 ID,填写到 AppId 这一栏。

b. 鼠标悬停于页面右上角的 图标上,在下拉菜单中单击 API-KEY。


c. 在左侧导航栏,选择全部 API-KEY 或我的 API-KEY,然后创建或查看 API-KEY。

说明:

  • 仅主账号拥有查看全部 API-KEY 的权限。主账号可以获取所有子账号的 API-KEY,子账号仅能获取自己的 API-KEY。
  • 请不要将 API-KEY 以任何方式公开,避免因未经授权的使用造成安全风险或资金损失。

d. 当调用子业务空间的应用时,需要传递业务空间标识,如果是默认业务空间可以不填写。 5. 编辑 TTS 文字转语音节点,在弹出的节点配置页面修改音色,下拉选择龙橙,然后单击保存。 6. 工作流节点全部修改完成后,点击保存。

三、创建智能体

1. 登录 AI 实时互动-智能体管理[8],单击创建智能体。 2. 可以自定义智能体名称为 Agent-English,并绑定之前创建的实时工作流 ID Workflow-English和实时音视频 ARTC 应用,完成后点击提交。

部署应用

请点击前往部署[9]打开我们提供的函数计算应用模板,参考下表进行参数配置,然后单击创建并部署默认环境。

项目 描述 示例值
部署类型 部署方式。 直接部署
应用名称 自动生成。 默认
角色名称 模板所需的角色(如果需要授权,请按照控制台提示进行授权)。 默认
实时音视频AppId 实时音视频应用 ID。 打开视频云直播控制台,点击左侧导航栏直播+ > 实时音视频(原互动直播) > 应用管理,单击操作列中的管理。在基本信息页面可以看到应用 ID 和 AppKey
实时音视频AppKey 实时音视频 AppKey。
语音通话智能体的AgentId 语音通话智能体的 AgentId。 打开智能体管理,找到并复制 Agent-English 智能体 ID
RAM角色ARN 函数计算访问智能媒体服务时使用的函数角色。 如果提示您当前选择的应用还需要额外一些权限,请单击前往授权
智能体所属区域 智能体所属区域,会在相同地区创建函数计算的实例。 默认华东1(杭州)
命名空间 可以根据需要多次创建该应用,通过命名空间来区分出不同的应用。 默认


方案验证

一、访问示例应用

1. 应用部署完成后,您可以在环境详情的环境信息中找到示例应用的访问域名。

2. 单击访问域名,在浏览器中,会自动跳转为 https 链接地址。提示安全证书警告或错误,可以选择点击高级选项,然后点击继续前往以访问该网站。

说明:应用程序需要使用麦克风,浏览器要求必须通过 HTTPS 进行连接。当前应用程序部署使用的域名是由 CNCF SandBox 项目下的 Serverless Devs 社区提供的临时域名,尚未绑定有效的 SSL/TLS 证书,因此当用户访问时,浏览器会提示连接不安全。建议在生产环境中部署该应用程序时,绑定一个有效的 SSL/TLS 证书,以确保通过 HTTPS 协议实现安全连接。 3. 进入示例应用。

二、实时英语口语陪练

1. 选择您想要学习的场景和难度,开始对话互动。

2. 在每轮对话过程中,AI 助手将根据您当前的回答提供评分,并给出针对性的学习建议,帮助您不断提升,期间可以使用 Tab 键进行打断。

说明:浏览器弹窗请求使用麦克风,点击访问该网站时允许。


总结




Cloud Native

至此,您已基本了解如何通过函数计算实现 AI 智能陪练,目前您可以在官网参与有奖体验活动,活动期间完成部署任务及提交作品,即可领取精美毛毯。更多细节以及后续清理资源,欢迎您点击阅读原文移步活动官网查看详情:

https://developer.aliyun.com/topic/aitrainingcompanion

相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
3月前
|
存储 机器学习/深度学习 算法
​​LLM推理效率的范式转移:FlashAttention与PagedAttention正在重塑AI部署的未来​
本文深度解析FlashAttention与PagedAttention两大LLM推理优化技术:前者通过分块计算提升注意力效率,后者借助分页管理降低KV Cache内存开销。二者分别从计算与内存维度突破性能瓶颈,显著提升大模型推理速度与吞吐量,是当前高效LLM系统的核心基石。建议收藏细读。
695 125
|
2月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
454 30
|
2月前
|
人工智能 测试技术 API
构建AI智能体:二、DeepSeek的Ollama部署FastAPI封装调用
本文介绍如何通过Ollama本地部署DeepSeek大模型,结合FastAPI实现API接口调用。涵盖Ollama安装、路径迁移、模型下载运行及REST API封装全过程,助力快速构建可扩展的AI应用服务。
689 6
|
2月前
|
人工智能 物联网 调度
边缘大型AI模型:协作部署与物联网应用——论文阅读
论文《边缘大型AI模型:协作部署与物联网应用》系统探讨了将大模型(LAM)部署于边缘网络以赋能物联网的前沿框架。针对传统云端部署高延迟、隐私差的问题,提出“边缘LAM”新范式,通过联邦微调、专家混合与思维链推理等技术,实现低延迟、高隐私的分布式智能。
721 6
边缘大型AI模型:协作部署与物联网应用——论文阅读
|
2月前
|
机器学习/深度学习 人工智能 Serverless
吉利汽车携手阿里云函数计算,打造新一代 AI 座舱推理引擎
当前吉利汽车研究院人工智能团队承担了吉利汽车座舱 AI 智能化的方案建设,在和阿里云的合作中,基于星睿智算中心 2.0 的 23.5EFLOPS 强大算力,构建 AI 混合云架构,面向百万级用户的实时推理计算引入阿里云函数计算的 Serverless GPU 算力集群,共同为智能座舱的交互和娱乐功能提供大模型推理业务服务,涵盖的场景如针对模糊指令的复杂意图解析、文生图、情感 TTS 等。
|
2月前
|
人工智能 运维 安全
加速智能体开发:从 Serverless 运行时到 Serverless AI 运行时
在云计算与人工智能深度融合的背景下,Serverless 技术作为云原生架构的集大成者,正加速向 AI 原生架构演进。阿里云函数计算(FC)率先提出并实践“Serverless AI 运行时”概念,通过技术创新与生态联动,为智能体(Agent)开发提供高效、安全、低成本的基础设施支持。本文从技术演进路径、核心能力及未来展望三方面解析 Serverless AI 的突破性价值。
|
3月前
|
人工智能 Ubuntu 前端开发
Dify部署全栈指南:AI从Ubuntu配置到HTTPS自动化的10倍秘籍
本文档介绍如何部署Dify后端服务及前端界面,涵盖系统环境要求、依赖安装、代码拉取、环境变量配置、服务启动、数据库管理及常见问题解决方案,适用于开发与生产环境部署。
761 1
|
3月前
|
存储 人工智能 Serverless
函数计算进化之路:AI 应用运行时的状态剖析
AI应用正从“请求-响应”迈向“对话式智能体”,推动Serverless架构向“会话原生”演进。阿里云函数计算引领云上 AI 应用 Serverless 运行时技术创新,实现性能、隔离与成本平衡,开启Serverless AI新范式。
476 12
|
3月前
|
人工智能 机器人 Serverless
安诺机器人 X 阿里云函数计算 AI 咖啡印花解决方案
当云计算遇见具身智能,AI咖啡开启零售新体验。用户通过手机生成个性化图像,云端AI快速渲染,机器人精准复刻于咖啡奶泡之上,90秒内完成一杯可饮用的艺术品。该方案融合阿里云FunctionAI生图能力与安诺机器人高精度执行系统,实现AIGC创意到实体呈现的闭环,为线下零售提供低成本、高互动、易部署的智能化升级路径,已在商场、机场、展馆等场景落地应用。
安诺机器人 X 阿里云函数计算 AI 咖啡印花解决方案