重磅发布的「AI视频通话」如何10分钟就实现?

简介: 2024年,OpenAI发布GPT-4o,支持文本、音频和图像的组合输入与输出,使交互更接近自然交流。传统语音助手需经历多阶段处理,容易出现延迟或误解,体验感差。本文介绍如何在阿里云上快速创建可视频通话的AI智能体,实现拟人化交互、精准感知、情绪捕捉等功能,提供高质量、低延时的音视频通话体验。通过简单的部署流程,用户可以轻松创建并体验这一先进的人机交互技术。点击“阅读原文”参与活动赢取惊喜礼物。

image.png

一、引言

2024年, OpenAI 正式发布了 GPT-4o,发布会上称,该模型的强大之处在于可以接受任何文本、音频和图像的组合作为输入,并直接生成上述这几种媒介输出。这也意味着人机交互将更接近人与人的自然交流。


我们在与传统的语音助手交互时,往往要经历至少三个阶段。


举个🌰:当我们说“XX,帮我设定一个上午10点的闹钟”。首先语音助手要进行语音识别,然后分析并执行指令,通过LLM 计划下一步要说什么,最后再将内容进行语音合成。每一个行动步骤都有可能出现较大延迟,甚至可能会理解错误,此时作为与机器交互的我们会体验感骤降。


那什么才是更接近人与人的自然交流?我们考虑视频通话的情况:1.视听同步:可以同时接收图像与音频信息2.听说同步:也就是当对方打断时,可以立刻停止;在对方发言的过程中,也会适时表示认可3.逻辑思维:预测对方讲话结束发生的时间,并很快接上4.迅速响应5.......


这些问题都是此前的 AI 语言助手无法很好处理的,而针对上面的问题,抽象出技术要点就是:


1.拟人化交互支持全双工实时音视频交互、智能语义识别与断句,并提供多种语言、音色和风格的语音合成及声音克隆。


2.精准感知根据摄像头捕捉的画面内容,系统能够实时分析情境并提供与当前场景紧密相关的反馈,提升互动的质量和效率。


3.情绪捕捉通过面部表情分析,AI 智能体能够解读用户的情绪状态,做出更加贴近用户期望的反应。


4.灵活编排控制台白屏化 AI 组件 ( ASR/TTS/数字人/LLM...) 灵活编排,快速构建一个企业专属云上 AI 智能体。


5.高质量通话依托实时音视频 ARTC 全球 3200+ 节点和 QoS 策略,实现高质量、低延时通话。但是!!这一OpenAI春季发布会的重磅杀手锏,在阿里云上人人可实现,人人可体验!本文将介绍的就是如何快速创造出可视频通话的AI 智能体。以及期待每一个部署的你与它碰撞出新的火花。点击文末“阅读原文,参与活动可得惊喜礼物~


二、操作教程

整体架构

部署流程总体可以分为以下三个步骤:

1、创建实时音视频通信应用

2、创建AI智能体

3、实际应用的部署


其中,AI 智能体是本方案的核心组件之一,能够在云端模拟高度拟真的用户交互。用户可以根据需求自行创建智能体。通过灵活的插件式和拖拽式方式,用户可以编排各个 AI 组件,如语音转文字、多模态大模型、语音合成等,从而实现 AI 智能体的实时工作流。实时音视频通信技术(ARTC)为用户与AI智能体之间的音频通话提供了高可用、高品质、超低延时的保障。


与智能体交互的过程,可以参看下面的流程图:

image.png

通过终端 SDK 发起与云端 AI 智能体的音视频通话请求,AI 智能体接收到用户的音视频输入后,依据预定义的工作流进行处理,对视频抽帧后交由多模态大模型进行理解,并将大模型的响应结果返回给用户,从而实现与 AI 智能体的对话。


创建实时音视频通信应用


实时音视频 ARTC 是智能体和用户之间建立起实时音频通信的基础,实现 AI 实时互动需要准备一个 ARTC 应用,参照以下步骤开通并创建 ARTC 应用。


1.开通视频直播:https://common-buy.aliyun.com/?commodityCode=live,计费方式选择按使用流量计费,点击右下角立即开通。

image.png

2.在视频云直播控制台:https://live.console.aliyun.com/overview,左侧导航栏单击直播+ > 实时音视频 > 应用管理。


3.单击创建应用。

image.png


创建AI智能体

AI 智能体是在 AI 实时互动解决方案中定义的高仿真用户,用户可以根据自身需求创建智能体,并将其集成到自己的应用中,使其能够按照既定工作流程在实时音频环境中运行,从而实现实时音频交互功能。


1.登录智能媒体服务控制台:https://ims.console.aliyun.com/summary,点击立即开通按钮。

image.png

2.在服务开通页面,勾选服务协议,点击立即开通按钮。

image.png

3.点击服务授权按钮。

image.png

4.在服务授权页面,点击同意授权按钮。


image.png

5.登录 AI实时互动-智能体管理:https://ims.console.aliyun.com/ai/robot/list,单击创建智能体

image.png

(1)基础信息:可以自定义智能体名称。

image.png


(2)工作流配置:选择 VisionChat系统工作流作为工作流ID;实时音视频ARTC应用则选择在上一步中创建的ARTC应用。完成这些配置后,点击提交按钮。

image.png


部署应用

1.请点击应用模板链接:https://fcnext.console.aliyun.com/applications/create?template=aui-ai-vision-chat&deployType=template-direct,打开我们提供的函数计算应用模板,填写配置。

image.png

2.其他配置项保持默认,点击页面左下角的创建并部署默认环境,等待项目部署完成即可。

image.png

3.应用部署完成后,可以在应用的环境详情中找到示例网站的访问域名,点击即可查看,确认示例网站已经部署成功。

image.png

4.当您点击拨打按钮后,系统会提示使用HTTPS访问页面。请根据提示点击所提供的链接,以完成页面跳转。

image.png

5.浏览器会提示安全证书警告或错误,可以选择点击高级选项,然后点击继续前往以访问该网站。

image.png


应用体验

一、实时视觉理解通话

  1. 单击拨打按钮,即可开始与智能体对话,询问有关春节习俗。

image.png

  1. 浏览器弹窗请求使用麦克风,点击访问该网站时允许

image.png

  1. 浏览器弹窗请求使用摄像头,点击访问该网站时允许

image.png

  1. 用户可以与智能体进行实时视觉理解通话,页面上会同步展示当前对话的文字信息,以便用户查阅对话内容。

image.png

5.单击右上角的 image.png ,可以选择自然对话模式或者对讲机模式,以及开启/关闭智能打断

image.png

二、如何在移动端快速集成视觉理解通话

  1. 当前 DEMO 提供了移动端扫码体验,支持使用微信/钉钉扫码,或复制链接后在手机浏览器中打开。

image.png

  1. 接下来,即可在移动端体验视觉理解通话。

image.png



来源  |  阿里云开发者公众号

相关文章
|
5天前
|
存储 人工智能 Serverless
一键解锁 AI 动画视频创作,赢好礼
短视频行业的快速增长使得内容创作的速度和质量成为竞争关键。传统动画故事制作复杂且昂贵,限制了创作者对市场热点的快速反应和创新实现。本方案通过 AI 生成剧本和动画,简化创作流程并降低技术门槛,使创作者能高效生产高质量作品,迅速适应市场需求。
|
28天前
|
机器学习/深度学习 人工智能 算法
【AI问爱答-双十一返场周】第二场企业办公视频
【AI问爱答-双十一返场周】探讨AI大模型时代对企业办公的影响。AI员工旨在辅助而非替代人类,通过深度学习、大规模训练数据和自我监督学习提升效率。视频介绍生成式智能工具如全妙系列,助力企业内容生产。关注AI问爱答,了解更多AI技术与应用。
|
21天前
|
机器学习/深度学习 人工智能 自然语言处理
VideoWorld:字节开源自回归视频生成模型,支持输入视频指导AI生成视频!弥补文本生成视频的短板
VideoWorld 是由字节跳动、北京交通大学和中国科学技术大学联合推出的自回归视频生成模型,能够从未标注的视频数据中学习复杂知识,支持长期推理和规划任务。
302 8
VideoWorld:字节开源自回归视频生成模型,支持输入视频指导AI生成视频!弥补文本生成视频的短板
|
22天前
|
人工智能 编解码
CogVideoX-Flash:智谱首个免费AI视频生成模型,支持文生视频、图生视频,分辨率最高可达4K
CogVideoX-Flash 是智谱推出的首个免费AI视频生成模型,支持文生视频、图生视频,最高支持4K分辨率,广泛应用于内容创作、教育、广告等领域。
227 5
CogVideoX-Flash:智谱首个免费AI视频生成模型,支持文生视频、图生视频,分辨率最高可达4K
|
28天前
|
机器学习/深度学习 人工智能 自然语言处理
Emotion-LLaMA:用 AI 读懂、听懂、看懂情绪,精准捕捉文本、音频和视频中的复杂情绪
Emotion-LLaMA 是一款多模态情绪识别与推理模型,融合音频、视觉和文本输入,通过特定情绪编码器整合信息,广泛应用于人机交互、教育、心理健康等领域。
118 11
Emotion-LLaMA:用 AI 读懂、听懂、看懂情绪,精准捕捉文本、音频和视频中的复杂情绪
|
22天前
|
人工智能 自然语言处理 搜索推荐
GLM-Realtime:智谱推出多模态交互AI模型,融入清唱功能,支持视频和语音交互
GLM-Realtime 是智谱推出的端到端多模态模型,具备低延迟的视频理解与语音交互能力,支持清唱功能、2分钟内容记忆及灵活调用外部工具,适用于多种智能场景。
55 4
GLM-Realtime:智谱推出多模态交互AI模型,融入清唱功能,支持视频和语音交互
|
1月前
|
机器学习/深度学习 人工智能 编解码
VideoVAE+:AI 生成视频高保真重建和跨模态重建工具,基于文本信息指导视频重建,提升视频细节质量
VideoVAE+ 是香港科技大学推出的先进跨模态视频变分自编码器,通过时空分离压缩机制和文本指导,实现了高效视频压缩与精准重建。
91 7
VideoVAE+:AI 生成视频高保真重建和跨模态重建工具,基于文本信息指导视频重建,提升视频细节质量
|
2月前
|
机器学习/深度学习 人工智能 算法
Enhance-A-Video:上海 AI Lab 推出视频生成质量增强算法,显著提升 AI 视频生成的真实度和细节表现
Enhance-A-Video 是由上海人工智能实验室、新加坡国立大学和德克萨斯大学奥斯汀分校联合推出的视频生成质量增强算法,能够显著提升视频的对比度、清晰度和细节真实性。
110 8
Enhance-A-Video:上海 AI Lab 推出视频生成质量增强算法,显著提升 AI 视频生成的真实度和细节表现
|
28天前
|
人工智能 搜索推荐
AI视频技术的发展是否会影响原创内容的价值
AI视频技术的发展显著降低了视频制作的门槛与成本,自动完成剪辑、特效添加等繁琐工作,大大缩短创作时间。它提供个性化创意建议,帮助创作者突破传统思维,拓展创意边界。此外,AI技术使更多非专业人士也能参与视频创作,注入新活力与多样性,丰富了原创内容。总体而言,AI视频技术不仅提升了创作效率,还促进了视频内容的创新与多样化。
|
2月前
|
人工智能
AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性
AniDoc 是一款基于视频扩散模型的 2D 动画上色 AI 模型,能够自动将草图序列转换为彩色动画。该模型通过对应匹配技术和背景增强策略,实现了色彩和风格的准确传递,适用于动画制作、游戏开发和数字艺术创作等多个领域。
126 16
AniDoc:蚂蚁集团开源 2D 动画上色 AI 模型,基于视频扩散模型自动将草图序列转换成彩色动画,保持动画的连贯性

热门文章

最新文章