【阅读原文】戳:通过阿里云计算巢部署NVIDIA NIM,加速企业大语言模型SaaS化
在人工智能飞速发展的今天,大语言模型(LLM)为各个行业带来了全新的场景和机遇。诸如客户服务数字人,计算机辅助药物研发的生成式虚拟筛选,基于检索增强生成(RAG)的企业多模态PDF数据提取,网络安全流数据过滤、处理和分类优化等工作流,正在无缝集成和运行在定制化的企业AI应用,企业还能够基于专有业务数据和用户反馈数据,不断优化AI应用。
同时,企业也面临着如何高效、安全地部署LLM的挑战。阿里云计算巢基于NVIDIA加速计算技术,通过阿里云云市场为企业和开发者提供NVIDIA AI Enterprise软件套件,其包含了NVIDIA NIM™ Agent Blueprint、NVIDIA NIM和NVIDIA NeMo™等企业级AI开发工作流和AI开发工具链。其中,NVIDIA NIM提供可靠、高性能的LLM推理服务,结合阿里云计算巢实现一站式云上部署,助力企业加速实现LLM的SaaS化。
本文以Llama3为例,介绍该方案的整体架构和部署方式。
NVIDIA NIM:
易于使用的预构建容器工具
NVIDIA NIM微服务是一套易于使用的预构建容器工具,目的是帮助企业客户在云、数据中心和工作站上安全、可靠地部署高性能AI模型。作为NVIDIA AI Enterprise的一部分,NIM具备以下核心优势:
安全、灵活的部署:NIM在不同环境的CUDA GPU加速基础设施和Kubernetes发行版中经过严格验证和基准测试,它支持企业在云、数据中心、工作站上安全可靠地部署高性能的AI推理,只需5分钟即可完成部署。
加速产品上市:企业通过预构建、持续维护的微服务,能够快速将产品推向市场,缩短开发周期。
开发者友好:开发者使用标准API和几行代码即可轻松将NIM集成到企业级AI应用程序中。
优化的推理引擎:NIM基于Triton™推理服务器、TensorRT、TensorRT-LLM和PyTorch等强大的推理引擎构建, 提供行业领先的吞吐率、延迟和token生成速度,确保服务响应更快。
企业级支持:NIM采用企业级基础容器构建,提供严格的验证、定期安全更新,适合企业生产环境部署。
阿里云计算巢:专为服务商
及其客户打造的云集成PaaS平台
阿里云计算巢服务是一个开放给企业应用服务商(包括:企业应用服务商、IT集成服务商、交付服务商和管理服务提供商等)及其用户的服务管理PaaS平台,提供软件上云的“一站式”解决方案。
阿里云计算巢能提供软件的交付、部署、运维流程标准化的服务,支持软件和资源的一体化交付,真正实现了软件的开箱即用。
阿里云计算巢服务集成了阿里云一系列底层产品能力,通过通用的应用管控框架、租户管理框架,帮助服务商提升服务的交付效率、管理效率和服务能力,在提升用户满意度的同时降低运营成本;并为用户提供了统一管理多种应用服务的平台,提升用户使用服务的效率和安全性,降低用户获取服务和管理服务的成本。
方案介绍
下图展示了通过阿里云计算巢快速部署NVIDIA NIM的整体架构。以Llama3为例,我们通过计算巢来创建、管理LLM推理服务:在阿里云容器服务ACK(容器服务Kubernetes版)集群上,我们使用阿里云ACK的云原生AI套件,集成开源推理服务框架KServe,来部署NVIDIA NIM。
同时,结合ACK的Prometheus和Grafana监控服务,快速搭建监控大盘,实时观测推理服务状态;利用NVIDIA NIM提供丰富的监控指标,如num_requests_waiting,配置推理服务弹性扩缩容策略。
这里列出的云上资源,以及阿里云弹性计算服务(ECS)、专有网络(VPC)等基础资源,都可以通过计算巢来轻松配置,一键拉起,最终实现一个云上高性能、可实时观测、极致弹性的大语言模型推理服务。用户只需要根据该服务创建实例,便可部署该服务。
图 1. 通过阿里云计算巢快速部署
NVIDIA NIM架构图
(图片来源于阿里云,如您有任何疑问或需要使用本图片,请联系阿里云)
部署流程
1. 参考NVIDIA NIM文档,生成NVIDIA NGC API Key,用于访问需要部署的模型镜像。以本文用到的Llama-3-8B-Instruct为例,可以通过NVIDIA NGC目录来获取:
https://org.ngc.nvidia.com/setup/personal-keys
同时,请阅读并承诺遵守Llama模型的自定义可商用开源协议:
https://www.llama.com/llama-downloads/
2. 在阿里云计算巢服务目录中找到“基于NVIDIA NIM快速部署LLM模型推理服务”,并进入实例部署页面:
https://computenest.console.aliyun.com/service/detail/cn-hangzhou/service-8cd0757070b848a399e4
如下图所示,主要配置服务的基本信息和云上资源,以及第一步中获取的NVIDIA NGC API Key,需要填写在下图相应位置。
图 2. 在阿里云计算巢创建服务实例
(图片来源于阿里云,如您有任何疑问或需要使用本图片,请联系阿里云)
因为服务部署在阿里云ACK集群之上,这里也包含了Kubernetes配置:
图 3. 阿里云ACK集群上Kubernetes
选项页面
(图片来源于阿里云,如您有任何疑问或需要使用本图片,请联系阿里云)
3. 按照页面提示完成所有配置之后,点击下一步:确认订单,在这里确认第2步配置的服务实例信息和价格预览。
图 4. 确认服务实例信息和价格预览
(图片来源于阿里云,如您有任何疑问或需要使用本图片,请联系阿里云)
部署过程中,用户需要创建和访问阿里云资源,当阿里云账号属于RAM账号时,需要开通以下权限,页面上也有开通这些权限的入口。
4. 点击立即创建,开始部署。过程中会涉及阿里云资源的创建、NIM模型镜像的拉取等。拉取过程的日志,可通过”点击资源tab->找到ACK集群->页面左侧的工作负载->无状态”来查看。部署完成后,进入服务实例详情查看使用说明。通过curl发送HTTP请求访问推理服务,修改content字段,便可自定义和推理服务交互的内容。
图 5. 服务实例详情页面截图
(图片来源于阿里云,如您有任何疑问或需要使用本图片,请联系阿里云)
通过阿里云的云市场获取
NVIDIA AI Enterprise使用该方案
NVIDIA NIM是NVIDIA AI Enterprise的一部分,正式使用时须获得NVIDIA AI Enterprise的许可证授权。现在,企业用户可以通过阿里云云市场获取NVIDIA AI Enterprise来使用该方案。阿里云市场提供了概念验证(PoC)测试服务和购买NVIDIA AI Enterprise许可证,共两个下单页面。
PoC 测试服务
https://market.aliyun.com/products/201214006/cmgj00067281.html
提供90天NVIDIA AI Enterprise PoC License,暨90天免费试用,而使用时须支付阿里云计算资源的费用。
通过阿里云的云市场购买NVIDIA AI Enterprise许可证
https://market.aliyun.com/products/201214006/cmfw00067311.html
该页面提供的信息仅供参考,用户需要通过该页面的“NVIDIA服务咨询”钉钉来沟通采购,最终通过云市场官网推送下单链接获取NVIDIA AI Enterprise许可证。
总结
本文介绍了通过阿里云计算巢快速部署NVIDIA NIM的方案收益和部署方式,该方案充分利用了NIM的安全与高性能的无缝AI 推理功能,以及计算巢的软件一站式上云和交付能力,从而打造极致弹性、高性能、可实时观测的云上LLM推理服务。更多LLM上云部署参考示例请查看NVIDIA NGC目录:
欢迎大家体验和试用。
查看更多计算巢服务 :https://computenest.aliyun.com
我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。
获取关于我们的更多信息~