走出大模型部署新手村!小明这样用魔搭×函数计算

本文涉及的产品
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
函数计算FC,每月15万CU 3个月
简介: 走出大模型部署新手村!小明这样用魔搭×函数计算

作者:拓山

前文介绍了魔搭 ModelScope 社区模型服务 SwingDeploy 服务。开发者可以将模型从魔搭社区的模型库一键部署至阿里云函数计算,当选择模型并部署时,系统会选择对应的机器配置。按需使用可以在根据工作负载动态的减少资源,节约机器使用成本。5 分钟完成从开源模型至模型推理 API 服务的生产转换……好,优势前文已经介绍过了。


那么,到底怎么应该怎么开始使用,本文将带小明(纯纯的小白)走出新手村,体验魔搭社区的一键部署服务(SwingDeploy[1]),对小明的种种疑惑进行解答。开始!



小明如何在魔搭社区一键部署开源模型?


魔搭开源社区当前只有热门开源模型支持一键部署(可支持部署的模型列表紧密扩充中),小明可以在模型库列表页面,过滤支持快速部署的 SwingDeploy 的模型列表,然后点击进模型详情页,其中模型详情页的右上角包含有部署按钮,可以进行快速部署(SwingDeploy)。



模型列表页过滤支持模型部署的模型列表。



模型详情页:右上快速部署。


另外,小明可以切换至首页,通过左侧【模型服务】进入模型部署服务(SwingDeploy)页面。



在新建快速部署(SwingDeploy)后,小明可以针对模型部署信息进行配置,包括必要的部署模型版本、部署地域、部署卡型、部署显存等。



当小明点击确认快速配置无误后,通过点击【一键部署】按钮,从而进入部署过程;整个过程一般持续 1-5 分钟,当部署完成后,可以看到服务状态切换为【部署成功】。



小明在魔搭一键部署模型到 FC 后,实际在 FC 部署了什么?


当小明将魔搭开源模型一键部署(SwingDeploy)到阿里云函数计算 FC 后,实际上是在阿里云函数计算 FC 平台创建了对应的服务与函数;服务和函数是阿里云函数计算资源模型中的一级概念:


  • 服务:
  • 一个服务中可以包含多个函数。
  • 在服务级别上可以配置日志采集、网络通道、存储扩展等,服务中的所有函数继承服务中的这些配置。
  • 函数:
  • 函数是调度与运行的基本单位,是平台用户业务逻辑的所在,其中指明了代码/容器镜像,配置了 CPU/内存/显存/GPU 的运行规格等。


函数计算平台在收到该函数的推理请求调用后,会根据服务和函数的配置来创建对应的 CPU/GPU 容器实例。函数实例处理完请求后,再由平台将响应返回给用户。对应的 CPU/GPU 容器实例空闲一段时间没有处理调用请求后,函数计算平台会将其释放。所以默认情况下,空闲未使用的服务/函数没有资源消耗,函数计算仅对请求处理部分计费。


使用魔搭的“模型服务” SwingDeploy 一键部署模型到函数计算后,可以在部署列表中看到“服务名称”,使用服务名称可以到函数计算控制台[2]相应地域的服务列表找到部署好的服务和函数。



函数计算控制台的服务与函数页面,搜索指定的服务。



用户通过魔搭一键部署模型后,在函数计算会对应生成的一个服务与其下的两个函数:


  • model_download_func 作用:用于部署阶段将魔搭模型下载至用户 NAS 内。
  • model_app_func作用:基于 Flask + 魔搭模型的推理 API,具体源码可见链接[3]



小明如何调用部署在 FC 的模型?


函数的调用是事件驱动的,我们定义一组规则,事件源产生的事件若匹配这些规则,就会触发函数的调用执行。这些规则的定义在函数计算中由“触发器[4]承载。具体到魔搭一键部署的函数,我们默认为其配置了一个 HTTP 触发器,若有相应的 HTTP 请求发生,即会触发函数的调用,详见函数计算平台 HTTP 触发器的使用文档[5]


小明可以通过魔搭平台提供的示例代码调用已部署好的模型。



魔搭示例代码中 API_URL 中的 HTTP URL,就是函数计算为每个魔搭模型函数配置的 HTTP 触发器。可以通过 FC 控制台,找到对应的魔搭服务下的 model_app_func 函数,通过查看函数详情页的“触发器管理”选项卡,查看更为详细的触发器信息。



小明发现部署在 FC 的模型首次调用耗时长,后续调用耗时短,如何调优


如上所说,函数如果长时间空闲(没有调用发生),平台会通过回收函数实例来释放资源。函数计算平台在收到一个调用请求后,会判断当前是否有空闲的函数实例可供使用,如果没有,则需要新创建一个函数实例来服务该请求,这个过程称之为冷启动。


如果函数实例初始化时间耗时较长,那么服务该实例上发生的初次调用的时延也会增加,例如,初始化较大的模型文件(ChatGLM-6B 模型文件 15GB)。


为了应对上述场景,函数实例按照弹性规则,可以分为按量和预留两种模式。上述根据请求量弹出的实例我们称为按量实例。与之对应的,可以为函数配置弹性规则,增加预留模式[6]的实例。预留实例由函数计算平台预先创建,属于常驻资源,可用于平缓突发请求产生的时延毛刺。


FC 按量模式与预留模式的差异:


FC 按量模式为通过请求自动触发实例的创建,首次发起调用时,需要等待实例冷启动。如果您希望消除冷启动延时的影响,可以通过配置 FC 预留模式来解决。

FC 预留模式是将函数实例的分配和释放交由您管理,当配置预留函数实例后,预留的函数实例将会常驻,直到您主动将其释放。


在控制台中,可以在函数详情的“弹性管理”选项卡配置弹性规则。如下图示例,最小实例数即预留实例数,最大实例数与最小实例数之差即按量实例数的上限(避免弹出资源太多,控制成本上限)。弹性管理的配置方法详见文档[7]


例如:可以通过如下操作指导,预留指定数量的 GPU 实例(测试目的:一般建议预留 1 个 GPU 实例)。



  • 切换至函数的弹性管理 Tab 页



  • 设置函数的 LATEST 版本,至少预留 1 个 GPU 实例



  • 查看当前预留实例数量,是否满足目标预留实例数量。(上图表明完成指定数量的 GPU 实例预留)
  • 当预留实例就绪后,推理请求调用会被优先分配至该预留实例上执行,从而规避按量场景下的冷启动。
  • 小明可以通过请求级别的日志观测,来查看请求是由按量实例服务、还是预留实例服务。





  • 通过删除弹性规则,可以删除对应预留实例。
  • 注意:预留实例的生命周期,完全由小明全权负责。


小明想实现类似 MidJourney 异步调用效果,应该如何做呢?


类似于 StableDiffusion 的 AIGC 生图场景,Midjourney 提供了非常好的异步队列效果,基于函数计算如何实现呢?函数计算同时提供同步调用、异步调用、异步任务三种处理能力。


  • 同步调用:
  • 当您同步调用一个函数时,事件将直接触发函数,函数计算会运行该函数并等待响应。当函数调用完成后,函数计算会将执行结果直接返回给您,例如返回结果、执行摘要和日志输出。
  • 详细文档:链接[8]
  • 异步调用:
  • 函数计算系统接收异步调用请求后,将请求持久化后会立即返回响应,而不是等待请求执行完成后再返回。函数计算保证请求至少执行一次。
  • 详细文档:链接[9]
  • 异步任务:
  • 当您对函数发起异步调用时,相关请求会被持久化保存到函数计算内部队列中,然后被可靠地处理。如果您想追踪并保存异步调用各个阶段的状态,实现更丰富的任务控制和可观测能力,可以选择开启任务模式处理异步请求。
  • 详细文档:链接[10]



当函数计算的异步调用能力与 GPU 相较合时(详细文档:链接[11]),小明可以很轻松的实现 AIGC 异步排队处理的良好用户体验。


小明发现模型/应用有问题,如何定位?


a. 可观测:配置 SLS 日志

SLS 是阿里云提供的日志类数据一站式服务。我们可以通过在函数对应的服务中配置 SLS 日志项目和日志库,函数实例执行过程中的输出就可以记录到配置的日志库中。之后可以通过函数计算控制台、 SLS 的控制台都可以对这些内容进行查看。


函数计算服务配置日志的详细内容,请见文档[12]。以下给出简要步骤。


1. 在服务配置中确认日志功能已启用。



2. 在函数详情中,“调用日志”选项卡查看函数维度的日志、请求维度的日志、容器实例维度的日志。




b. 可观测:如何查看监控

函数计算平台记录了多个层次的监控指标,我们可以通过控制台进行查询。


一方面,我们可以通过控制台左侧“高级功能”、“监控大盘”进入,在大盘页面下方依次选择服务名称、函数名称,查看不同层次的监控汇总信息。有关监控指标详细信息请见文档[13]



另一方面,我们可以在函数详情“监控指标”选项卡中,直接对函数自身相关的指标进行查看。



最后,我们可以在函数详情“调用日志”选项卡中,查看函数运行的相关日志。



c. 可观测:如何命令行调试

我们也可以通过函数计算控制台函数详情的“实例列表”选项卡,使用“登录实例”功能进入到函数实例里面,通过直接的交互对执行环境、函数行为进行调试。



如果当前“实例列表”为空,可以通过测试调用触发函数计算平台新弹出一个实例。



登陆 GPU 实例后,小明就可以执行相关的 shell 命令了#


Tips:需要注意的是,登录实例的过程中,函数实例处于活跃状态,和调用函数采用相同的计量规则。为避免忘记关闭会话而意外产生费用,通过控制台进行命令行操作时,会话默认会在空闲 10 分钟之后断开连接。如有需要,可以通过执行例如 top 来进行保活。


小明想让模型跑在不同的 CPU/GPU 上,在 FC 上应如何设置呢?


如果我们通过监控指标发现函数实例的资源使用较为饱和或者空闲,可以在“函数配置”选项卡上,对函数的资源规格进行配置,包括 CPU/磁盘/内存/显存等。


特别地,对于 GPU 函数,我们可以通过切换 GPU 卡型,还提升单个函数实例最大可配置的显存大小(T4 最大 16GB,A10 最大 24GB)。关于 GPU 函数的更多信息,可见文档[14]


1. 查看函数当前配置



2. 编辑函数基础信息



小明调优后的模型可以批量推理,在 FC 上应该如何设置呢?


函数计算平台在收到一个推理调用请求后,会判断现有函数容器实例的并发度是否够用,决定是否将该推理调用请求转发给现有函数容器实例来处理,还是新弹出一个函数容器实例处理该请求。


单个函数容器实例同时能处理的调用请求数为函数实例的并发度[15]。如果应用本身能够同时处理多个请求,相比默认的 1 并发度,可以减少函数的冷启动次数。建议根据不同应用场景的需要,选择不同的并发度配置。


  • 计算密集型的推理应用:建议 GPU 函数实例的并发度保持默认值 1。
  • 支持请求批量聚合的推理应用:建议 GPU 函数实例的并发度根据能同时聚合的推理请求数量进行设置,以便批量推理。


我们可以在编辑函数的“基础信息”过程中,调整函数实例的并发度。



特别地,对于 GPU 函数,默认情况下,无论 Tesla 系列 T4 卡型、还是 Ampere 系列 A10 卡型的 GPU 实例,单个阿里云账号地域级别的 GPU 物理卡上限为 10 卡(示例请见文档[16])。在高并发场景下,如您有更高的物理卡需求,请加入钉钉用户群(钉钉群号:11721331)申请。


函数计算 FC小明完成了函数计算新手村课程,对小明还有其他嘱咐嘛?


  • GPU 实例 FAQ[17]
  • GPU 函数镜像使用说明[18]
  • GPU 应用场景使用说明[19]


相关链接:

[1] SwingDeploy

https://www.modelscope.cn/docs/%E9%83%A8%E7%BD%B2FC?spm=a2c6h.13046898.publish-article.20.210e6ffavCYCyQ

[2] 函数计算控制台

https://account.aliyun.com/login/login.htm?oauth_callback=https%3A%2F%2Ffcnext.console.aliyun.com%2Foverview%3Fspm%3Da2c6h.13046898.publish-article.22.210e6ffavCYCyQ&lang=zh

[3] 链接

https://www.devsapp.cn/details.html?name=start-modelscope

[4] 触发器

https://help.aliyun.com/zh/fc/trigger-overview

[5] 使用文档

https://help.aliyun.com/zh/fc/configure-an-http-trigger-that-invokes-a-function-with-http-requests

[6] 预留模式

https://help.aliyun.com/zh/fc/configure-provisioned-instances-and-auto-scaling-rules#section-cra-c7p-wbo

[7] 文档

https://help.aliyun.com/zh/fc/configure-provisioned-instances-and-auto-scaling-rules#section-7v8-a44-j5q

[8] 链接

https://help.aliyun.com/zh/fc/user-guide/synchronous-invocations

[9] 链接

https://help.aliyun.com/zh/fc/user-guide/overview-34

[10] 链接

https://help.aliyun.com/zh/fc/overview-25

[11] 链接

https://help.aliyun.com/zh/fc/use-cases/offline-asynchronous-task-scenarios

[12] 文档

https://help.aliyun.com/zh/fc/user-guide/configure-the-logging-feature

[13] 文档

https://help.aliyun.com/zh/fc/user-guide/configure-the-logging-feature

[14] 文档

https://help.aliyun.com/zh/fc/use-cases/introduction-to-serverless-gpus

[15] 函数实例的并发度

https://help.aliyun.com/zh/fc/configure-instance-concurrency

[16] 文档

https://help.aliyun.com/zh/fc/use-cases/quasi-real-time-inference-scenarios#p-p53-jwq-172

[17] GPU 实例 FAQ

https://help.aliyun.com/zh/fc/support/faq-about-gpu-accelerated-instances

[18] GPU 函数镜像使用说明

https://help.aliyun.com/zh/fc/use-cases/image-usage-notes

[19] GPU 应用场景使用说明

https://help.aliyun.com/zh/fc/use-cases/scenarios/

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
20天前
|
人工智能 弹性计算 Serverless
触手可及,函数计算玩转 AI 大模型 | 简单几步,轻松实现AI绘图
本文介绍了零售业中“人—货—场”三要素的变化,指出传统营销方式已难以吸引消费者。现代消费者更注重个性化体验,因此需要提供超出预期的内容。文章还介绍了阿里云基于函数计算的AI大模型,特别是Stable Diffusion WebUI,帮助非专业人士轻松制作高质量的促销海报。通过详细的部署步骤和实践经验,展示了该方案在实际生产环境中的应用价值。
71 6
触手可及,函数计算玩转 AI 大模型 | 简单几步,轻松实现AI绘图
|
9天前
|
自然语言处理 搜索推荐 Serverless
基于函数计算部署GPT-Sovits模型实现语音生成
阿里云开发者社区邀请您参加“基于函数计算部署GPT-Sovits模型实现语音生成”活动。完成指定任务即可获得收纳箱一个。活动时间从即日起至2024年12月13日24:00:00。快来报名吧!
|
9天前
|
弹性计算 自然语言处理 搜索推荐
活动实践 | 基于函数计算部署GPT-Sovits模型实现语音生成
通过阿里云函数计算部署GPT-Sovits模型,可快速实现个性化声音的文本转语音服务。仅需少量声音样本,即可生成高度仿真的语音。用户无需关注服务器维护与环境配置,享受按量付费及弹性伸缩的优势,轻松部署并体验高质量的语音合成服务。
|
1月前
|
弹性计算 人工智能 自然语言处理
魔搭社区与函数计算:高效部署开源大模型的文本生成服务体验
在数字化时代,人工智能技术迅速发展,开源大模型成为重要成果。魔搭社区(ModelScope)作为开源大模型的聚集地,结合阿里云函数计算,提供了一种高效、便捷的部署方式。通过按需付费和弹性伸缩,开发者可以快速部署和使用大模型,享受云计算的便利。本文介绍了魔搭社区与函数计算的结合使用体验,包括环境准备、部署应用、体验使用和资源清理等步骤,并提出了改进建议。
|
1月前
|
人工智能 自然语言处理 监控
函数计算玩转 AI 大模型
本文总结了对一个基于函数计算和AI大模型的解决方案的理解和实践体验。整体而言,方案描述详细、逻辑清晰,易于理解。但在技术细节和部署引导方面还有提升空间,如增加示例代码和常见错误解决方案。函数计算的优势在部署过程中得到了有效体现,特别是在弹性扩展和按需计费方面。然而,针对高并发场景的优化建议仍需进一步补充。总体评价认为,该解决方案框架良好,但需在文档和细节方面继续优化。
|
2月前
|
人工智能 弹性计算 监控
触手可及,函数计算玩转 AI 大模型解决方案
阿里云推出的“触手可及,函数计算玩转 AI 大模型”解决方案,利用无服务器架构,实现AI大模型的高效部署和弹性伸缩。本文从实践原理、部署体验、优势展现及应用场景等方面全面评估该方案,指出其在快速部署、成本优化和运维简化方面的显著优势,同时也提出在性能监控、资源管理和安全性等方面的改进建议。
81 5
|
2月前
|
缓存 前端开发 JavaScript
前端serverless探索之组件单独部署时,利用rxjs实现业务状态与vue-react-angular等框架的响应式状态映射
本文深入探讨了如何将RxJS与Vue、React、Angular三大前端框架进行集成,通过抽象出辅助方法`useRx`和`pushPipe`,实现跨框架的状态管理。具体介绍了各框架的响应式机制,展示了如何将RxJS的Observable对象转化为框架的响应式数据,并通过示例代码演示了使用方法。此外,还讨论了全局状态源与WebComponent的部署优化,以及一些实践中的改进点。这些方法不仅简化了异步编程,还提升了代码的可读性和可维护性。
|
2月前
|
Serverless 数据安全/隐私保护 前端开发
大模型代码能力体验报告之贪吃蛇小游戏《一》:Claude.ai篇 - 生成、预览和快速部署的serverless一条龙
本文介绍了通过Claude.ai生成并优化Web版贪吃蛇游戏的过程,展示了其强大的代码生成功能及用户友好的界面设计。从初始版本的快速生成到根据用户反馈调整游戏速度,再到提供多种实用工具如文件管理、版本控制和一键部署,Claude.ai不仅是一个代码助手,更像是一个全面的serverless开发平台。文中还呼吁国内厂商关注此类技术的发展。
|
2月前
|
人工智能 弹性计算 运维
触手可及,函数计算玩转 AI 大模型
《触手可及,函数计算玩转 AI 大模型》解决方案通过函数计算(Function Compute)实现AI大模型的高效部署和管理,利用云服务的弹性伸缩和按需付费特性,降低了部署和运维的复杂度。整体描述较为清晰,但在模型加载与推理、性能指标、示例代码等方面可进一步优化。部署过程中提供了详细文档,但仍需细化步骤、增加FAQ和报错处理。解决方案展示了函数计算的优势,但在性能对比、案例研究和成本分析方面有待加强。该方案基本符合实际生产环境需求,但在高可用性、监控与日志、安全性和扩展性方面仍有提升空间。
|
3月前
|
人工智能 自然语言处理 Serverless
阿里云函数计算 x NVIDIA 加速企业 AI 应用落地
阿里云函数计算与 NVIDIA TensorRT/TensorRT-LLM 展开合作,通过结合阿里云的无缝计算体验和 NVIDIA 的高性能推理库,开发者能够以更低的成本、更高的效率完成复杂的 AI 任务,加速技术落地和应用创新。
160 13

热门文章

最新文章

相关产品

  • 函数计算