助力企业构建 AI 原生应用,函数计算 FunctionAI 重塑模型服务与 Agent 全栈生态

简介: 在 AI 技术应用落地进程中,目前面临着五大核心挑战:开发/学习门槛过高,部署运维阶段复杂,AI 应用安全备受挑战,生态能力方面存在严重的割裂与锁定现象,同时资源成本高昂且利用率低下。这些挑战极大地阻碍了 AI 技术的广泛普及以及应用效率的有效提升。阿里云函数计算(FC)依托 Serverless AI 基础设施与全栈能力的创新突破,推出 Function AI(函数智能),精准攻克上述痛点问题,全面推动 AI 应用在开发至运维的全流程中实现降本增效。

作者:刘宇

1763534755404_80C9684E-83E4-4600-8A3D-3C561707DE43.png

本文整理自 2025 云栖大会,阿里云智能集团产品专家,刘宇演讲议题《函数计算发布 FunctionAl:serverless Al 原生应用基础设施》


在 AI 技术应用落地进程中,目前面临着五大核心挑战:开发/学习门槛过高,部署运维阶段复杂,AI 应用安全备受挑战,生态能力方面存在严重的割裂与锁定现象,同时资源成本高昂且利用率低下。这些挑战极大地阻碍了 AI 技术的广泛普及以及应用效率的有效提升。


阿里云函数计算(FC)依托 Serverless AI 基础设施与全栈能力的创新突破,推出 Function AI(函数智能),精准攻克上述痛点问题,全面推动 AI 应用在开发至运维的全流程中实现降本增效。以下将从四个关键维度,详细阐述阿里云函数计算(FC)的核心解决方案。


01 函数计算 FC:Serverless 形态的 AI 基础设施


阿里云函数计算(FC)全新推出 Serverless AI 基础设施,以“高可用、低成本、零/低运维”为核心,为企业提供从模型部署到 Agent 开发的全栈解决方案。该平台通过 Serverless 架构的弹性特性与智能化资源管理,显著降低 AI 应用的开发复杂度与资源成本,助力企业快速实现 AI 落地。


1. 开发效率提升:无需关注底层资源,开发者可专注于业务逻辑,模型一键转换为 Serverless API。

2. 弹性资源调度:按需付费 + N 分之一卡资源分配(如 1/16 卡),GPU 部署成本降低 90% 以上。

3. 免运维特性:实例闲置时自动缩容至 0,资源利用率优化 60%,实现业务运维转型。

1763534825936_4328F36B-50BB-458e-BE1A-B8826A40CC45.png

02 核心能力发布:AgentRun 与模型服务、文生图服务


阿里云函数计算全新发布 FunctionAI,基于 Serverless 架构的企业级 AI 应用基础设施平台,实现从模型托管到 Agent 开发的全流程覆盖,显著降低技术门槛并提升跨平台适配性。


AgentRun 全流程解决方案

Agent Run[1]通过高代码与低代码结合,提升 AI 开发效率,支持主流开发生态。在部署阶段,提供轻量、灵活、安全隔离的 AI 运行时,支持多种模型和工具运行时,确保应用安全与扩展性。运维方面,Agent Run 具备全链路监控能力,免资源运维,实现业务运维转型。八大组件共同构建,助力开发者轻松构建企业级 AI 应用。

1763535253520_1103BD44-739E-41af-93D9-D06C0B58BB86.png

1. 全生命周期能力

  • 开发阶段:高代码 + 低代码模式,兼容阿里云百炼、CloudFlow、Dify 等生态,开发者可自由选择框架;
  • 部署阶段:轻量、灵活、安全隔离的运行时,支持大模型/垂类模型调用,提供安全沙箱隔离机制与 MCP/Function Call 协议双保障;
  • 运维阶段:全链路监控 + 端到端可观测性,定位问题并提供优化建议,实现免资源运维。

2. 技术架构优势

  • 百万级并发:基于 Session 亲和与多语言引擎,提供企业级沙箱服务能力;
  • 毫秒级弹性:内存快照技术实现 CPU 毫秒启动、GPU 秒级响应;
  • 成本降低 60%:支持 GPU/CPU/内存解耦配置(最小 0.25 CPU),实例闲置时自动缩容至 0,按需付费。

1763535278066_908EBC3D-D09D-421a-BFF3-50487152D8AE.png

大语言模型代理机制

多模型统一接入

  • 支持 Cloud、GPT、通义千问等 20 家主流大模型,实现开源模型一键部署;
  • 通过统一规范管理所有模型,解决 First Token 延迟与负载均衡问题。


动态模型治理

  • 自动切换机制:当主模型 First Token 时间过长或负载过高时,快速启用备用模型;
  • 并行处理能力:多模型并行执行,首个返回结果的模型优先作为主模型。

1763535332887_8BE110DD-3E55-43a3-B3E5-041B8FA48959.png

工具生态联动

1. 统一工具接口

  • 兼容 MCP/Function Call 协议,适配主流工具与第三方服务,API 集成时间从天级降至分钟级。


2. 智能工具管理

  • Tool Hub 插件市场:海量插件一键部署,快速构建业务场景;
  • 智能路由优化:通过语义分析前置筛选工具,降低调用时间(从 60 秒降至秒级)与 Token 消耗。

1763535360075_5422BC93-1B97-46ed-983E-F89886A42676.png

模型服务:AI 模型一键转化为 Serverless API

阿里云函数计算推出的模型服务[2],以 Serverless 架构为核心,通过生态兼容性、技术能力与成本优化三位一体,为企业提供从模型部署到服务调用的全链路解决方案。该服务显著降低 AI 应用开发门槛,同时保障高可用性与资源高效利用,助力企业快速构建生产级模型服务。

1763535401783_89905E7A-53C8-4387-A427-5719657E4507.png

  • 生态兼容性
  • 覆盖大语言模型与垂类模型,兼容 ModelScope、HuggingFace 等主流平台;
  • 支持 vLLM、SGLang、Ollama、Transformer 等技术架构的一键部署。
  • 技术能力
  • 提供 100+ 模型在线体验,200+ 模型一键部署;
  • 六大框架一键托管,与 Agent 服务无缝集成;
  • DevPod 在线环境支持代码调试与镜像自动构建,无需掌握 Dockerfile。
  • 成本优化
  • Serverless GPU 技术结合按量付费模式,N 分之一卡资源分配(如 1/16 卡);
  • 部署成本降低 90% 以上,资源闲置时不计费,支持百万级并发与毫秒级弹性;
  • 与 ComfyUI、Dify 等生态实现一键联动,消除资源预置顾虑。


文生图/声音/视频:多模态 AI 创作平台

多模态 AI 创作平台[3]以“零门槛生成”为核心,通过全链路工具与生态联动,覆盖电商设计、游戏渲染、营销物料、教育培训等全行业场景。平台提供开箱即用的文生图/视频/声音能力,结合高性价比算力与自动化资源管理,显著降低创作门槛与成本。

1763535433453_ADA12AEB-40E5-4694-9328-90C4A94C09F0.png

1. 文生图与文生视频

  • 集成 ComfyUI 与 Stable Diffusion 工具,解决本地部署复杂度与显存资源限制;
  • 支持全场景内容生成,从设计到渲染实现端到端自动化。


2. Lora 模型训练

  • 提供 Muse Lora 等专业训练器,覆盖数据标注到模型训练的全流程;
  • 适配垂类场景需求,快速生成定制化模型。


3. 企业级 Serverless API 调用

  • 一键部署 Stable Diffusion、ComfyUI 等模型,自动转换为 Serverless API;
  • 高性价比 GPU 弹性算力 + 自动扩容,支持同步/异步灵活切换。


03 Agent 最佳全栈实践:Function Q,你的云上助理


Function Q 是专业的函数计算智能助手,集成了基于大模型的代码自动生成、智能运维诊断和系统架构设计三大核心能力,显著提升 Serverless 应用的开发效率。整体技术栈基于函数计算 FC、API 网关、RocketMQ、SLS 等阿里云成熟基础服务构建,遵循云原生设计原则,提供企业级的高可用性、安全性和可观测性保障。

1763535477426_DCD76A10-6C54-45d2-BF7C-EF101614AAF4.png

1. 智能开发助手

  • 意图驱动部署:用户通过自然语言描述需求(如“获取本地天气”),Function Q 自动生成代码并部署至函数计算,提供按量付费的 API 接口;
  • 示例场景:输入“获取本地 IP”,Function Q 自动查询 API 并生成可调用服务,无需手动编写 Dockerfile 或配置资源。


2. 运维诊断专家

  • 问题自动分析:针对资源费用异常、函数运行错误等问题,调用 MCP 工具链定位根源并提供解决方案;
  • 实时监控支持:支持全链路可观测性,缩短故障排查周期,提升运维效率。


3. 架构设计顾问

  • 业务迁移指导:通过业务描述分析,推荐切分方法或整体打包策略,适配函数计算架构需求;
  • 场景覆盖:解决开发者对 Serverless 架构迁移路径的困惑,实现零门槛上云。


04 拥抱开源,与开源共成长


阿里云函数计算将坚定拥抱开源、与开源共成长。AI 并非单纯商业化产品,而是开放共赢的技术生态平台。当下,我们已与 Agentscope、LangChain、dify 等平台开展开源托管及代码集成工作。


未来,还有两大关键动作:一是开源 AgentRun SDK,助力快速集成上层开源框架;二是推出 model plugin,让所有垂类模型可像插件般,快速接入 dify、N8N、Stable Diffusion\ComfyUI 等现有生态。我们期望借此不仅拥抱开源,更能反哺开源,携手共进。


相关链接:

[1] Agent Run
https://fcnext.console.aliyun.com/agent-run

[2] 模型服务

https://fcnext.console.aliyun.com/fun-model

[3] 多模态 AI 创作平台

https://fcnext.console.aliyun.com/fun-art/explore

相关实践学习
【AI破次元壁合照】少年白马醉春风,函数计算一键部署AI绘画平台
本次实验基于阿里云函数计算产品能力开发AI绘画平台,可让您实现“破次元壁”与角色合照,为角色换背景效果,用AI绘图技术绘出属于自己的少年江湖。
从 0 入门函数计算
在函数计算的架构中,开发者只需要编写业务代码,并监控业务运行情况就可以了。这将开发者从繁重的运维工作中解放出来,将精力投入到更有意义的开发任务上。
相关文章
|
24天前
|
人工智能 运维 Serverless
从 Transform 到 Transformer,用 EventBridge 与百炼构建实时智能的 ETL 数据管道
作为数据处理领域的经典模式,ETL(Extract-Transform-Load)通过提取、转换、加载三个步骤,高效地处理着各类结构化数据。然而,面对 AI 时代海量、异构、实时的“数据洪流”,传统 ETL 链路,尤其是其核心的转换(Transform)环节,正面临严峻挑战。本文将从一个初级开发者也能理解和上手的视角,探讨 AI 时代的数据处理新范式:如何利用基于 Transformer 架构的大语言模型(LLM)重塑传统数据处理中的转换(Transform)环节,并结合事件驱动架构(Event-Driven Architecture, EDA),为 AI 数据处理链路“注入实时智能”。
|
23天前
|
人工智能 自然语言处理 安全
Serverless AI 原生架构破局「三高」困境
在 AI 大模型浪潮席卷全球的今天,企业纷纷加速拥抱 AI,推动智能客服、内容生成、流程自动化等场景快速落地。然而,许多企业在实践中却遭遇了“三高困境”——成本高、复杂度高、风险高。Serverless AI 原生架构不仅是技术演进,更是企业智能化转型的关键基础设施。它让开发者聚焦业务逻辑,让企业告别“基建焦虑”,让 AI 真正“飞入寻常百姓家”。
|
人工智能 运维 安全
阿里云函数计算 AgentRun 全新发布,构筑智能体时代的基础设施
阿里云推出以函数计算为核心的AgentRun平台,通过创新体系解决开发、部署、运维难题,提供全面支持,已在多个真实业务场景验证,是AI原生时代重要基础设施。
|
15天前
|
人工智能 安全 调度
一文详解容器服务面向大模型和 AI Agent 的技术变革
在生成式人工智能迅猛发展的浪潮下,企业应用正加速从模型研究走向业务落地。无论是大规模的数据处理、超大参数模型的训练与推理,还是部署能够自动完成任务的 AI Agent,这些场景都需要稳定、高效且可弹性伸缩的资源调度与管理能力。容器凭借环境一致性、跨平台部署和高效调度等优势,天然契合 AI 场景对多样化算力、快速迭代和规模化分发的要求,成为 AI 时代事实上的原生基石。然而,要满足在生产规模下的需求,产品及技术形态需随之演进。
169 3
|
1月前
|
SQL 数据采集 人工智能
评估工程正成为下一轮 Agent 演进的重点
面向 RL 和在数据层(SQL 或 SPL 环境)中直接调用大模型的自动化评估实践。
956 219
|
2月前
|
人工智能 自然语言处理 安全
SOFA AI 网关基于 Higress 的落地实践
SOFA 商业化团队为满足客户 AI 业务的发展需求,基于开源 Higress 内核构建,推出了 SOFA AI 网关,专为 SOFA 场景深度优化、能力增强,是面向 AI 需求的智能网关解决方案。
245 20
|
3月前
|
人工智能 运维 安全
阿里云函数计算 AgentRun 全新发布,构筑智能体时代的基础设施
云原生应用平台 Serverless 计算负责人杨皓然在云栖大会发表主题演讲“Serverless Agent 基础设施:助力大规模 Agent 部署与运维”。本议题深入介绍了阿里云以函数计算为核心打造的 Agent 基础设施——AgentRun,阐述其如何通过创新的运行时、模型服务、网关及可观测体系,为企业构筑坚实、高效、安全的 Agent 时代基石。
|
26天前
|
人工智能 运维 Serverless
ModelScope 模型一键上线?FunModel 帮你 5 分钟从零到生产
FunModel 依托 Serverless + GPU,天然提供了简单,轻量,0 门槛的模型集成方案,给个人开发者良好的玩转模型的体验,也让企业级开发者快速高效的部署、运维和迭代模型。在阿里云 FunModel 平台,开发者可以做到:模型的快速部署上线:从原来的以周为单位的模型接入周期降低到 5 分钟,0 开发,无排期;一键扩缩容,让运维不再是负担:多种扩缩容策略高度适配业务流量,实现“无痛运维”。
|
2月前
|
人工智能 开发工具 开发者
单提交智能评审上线!用云效精准定位复杂 MR 代码问题
随着代码评审进入智能化时代,AI 已成为提升 Code Review 效率与代码质量的重要助手。但当一次合并请求(MR)包含大量提交或巨量变更时,把所有 diff 一次性交给 AI 审查,容易导致判断失真、遗漏细节或误解改动意图。为此,云效 Codeup 推出“单提交评审”模式,把每个 commit 作为独立评审单元,有针对性地结合 commit message 给出意见,有效解决大 MR 场景下的智能评审痛点。
|
2月前
|
SQL 人工智能 关系型数据库
AI Agent的未来之争:任务规划,该由人主导还是AI自主?——阿里云RDS AI助手的最佳实践
AI Agent的规划能力需权衡自主与人工。阿里云RDS AI助手实践表明:开放场景可由大模型自主规划,高频垂直场景则宜采用人工SOP驱动,结合案例库与混合架构,实现稳定、可解释的企业级应用,推动AI从“能聊”走向“能用”。
870 39
AI Agent的未来之争:任务规划,该由人主导还是AI自主?——阿里云RDS AI助手的最佳实践