阿里云异构计算发布:轻量级GPU云服务器实例VGN5i

简介: 阿里云发布了国内首个公共云上的轻量级GPU异构计算产品——VGN5i实例,该实例打破了传统直通模式的局限,可以提供比单颗物理GPU更细粒度的服务,从而让客户以更低成本、更高弹性开展业务。适用于云游戏、VR/AR、AI推理和DL教学等轻量级GPU计算场景,更细粒度的GPU计算服务。

阿里云发布了国内首个公共云上的轻量级GPU异构计算产品——VGN5i实例,该实例打破了传统直通模式的局限,可以提供比单颗物理GPU更细粒度的服务,从而让客户以更低成本、更高弹性开展业务。适用于云游戏、VR/AR、AI推理和DL教学等轻量级GPU计算场景,更细粒度的GPU计算服务。

轻量级GPU云服务器是什么?

轻量级GPU云服务器是一种新的GPU云服务器规格族,是通过公共云的GPU虚拟化技术将分片虚拟化后的GPU资源以虚拟GPU的形式安装在GPU云服务器实例中。与常规GPU云服务器的区别在轻量级GPU云服务器提供更细力度的GPU计算资源,比如拥有更少的CUDA计算核心,更小的显存。这样做的优势是在业务应用中,业务可以根据资源所需更加灵活的配置GPU计算资源。

test

用户在使用常规GPU云服务器的时候遇到了哪些痛点?

GPU的计算颗粒过大:
单颗物理GPU的计算能力越做越强大,但是许多应用需要更小颗粒的GPU计算资源;
常规GPU资源不利于业务自动伸缩:
拥有单颗物理GPU资源的实例在业务部署中会因为要充分利用GPU资源而造成“胖节点”,不利于设计成弹性伸缩架构,缺乏灵活性,无法应对业务快速变化;
常规GPU计算实例无法在线迁移:
常规直通虚拟化的GPU实例,由于架构特性无法支持GPU实例的在线迁移;

轻量级GPU云服务器与常规GPU云服务器有哪些不同?

我们从GPU加速器呈现方式,业务连续性,计算业务场景以及使用与管理看不同:
GPU加速器呈现
常规GPU云服务器实例是通过设备直通方式提供物理GPU加速器;
轻量级GPU云服务器实例是通过GPU虚拟化方式提供虚拟GPU加速器;
业务连续性
常规GPU云服务器仅支持作业离线迁移
轻量级GPU云服务器支持作业在线迁移
计算业务场景
常规GPU云服务器适用于重负载的GPU加速计算,例如:深度学习训练与推理计算、HPC计算、重载图形计算
轻量级GPU云服务器适用于轻负载的GPU加速计算,例如:轻负载的深度学习推理计算、深度学习教学场景、云游戏与VR/AR场景
使用与管理
常规GPU云服务器提供弹性计算服务实例、业务扩展以单颗物理GPU资源方式增加
轻量级GPU云服务器依然提供弹性计算服务实例,但业务扩展以更小粒度GPU资源方式增加(例如:1/8或1/4颗Tesla P4的资源);

VGN5i有哪些技术亮点和技术领先性,解决哪些问题?

技术亮点:支持用户在公共云上创建更小颗粒的虚拟GPU的云服务器实例。
技术领先性有三点:
任何一项领先的计算技术要将其移植到公共云上输出,还是要遵循可靠性、经济性和易用性的技术要求。
首先是可靠性,公共云服务器首先是公共服务,要给所有用户提供“简单可依赖”的基础服务;虽然虚拟化GPU技术在私有部署条件下使用比较成熟,但是在公共云上使用还是要面临几个可靠性的挑战的:第一是数据安全性;第二是资源隔离;这两个问题在私有部署条件下通常是没有要求的,原因是私有部署都是给同一用户部署使用,安全和资源争抢问题都比较容易解决。但是,要在公共云上使用,这些问题在公共云上就必须解决。
其次是经济性,用户能选择使用轻量级GPU云服务器出发点是希望更加精细的使用GPU资源,本质是追求经济性。虚拟化GPU技术在私有环境部署,因为需求确定,可以根据预想好的使用场景来配置虚拟化比例,但在公共云场景就要解决既要满足所有用户的使用场景,又要保持调度系统的高效,不断降低成本,追求经济性。
最后是易用性,易用性表现在几个方面,一个是管理接口和使用习惯与其他ECS实例保持一致,另一个是APP在GPU实例中的使用场景和方式与其他常规GPU实例保持一致。这样用户就没有学习成本了。

test

轻量级GPU云服务器如何使用?

GPU实例的用法与普通弹性计算实例一样便捷,用户可以使用Web控制台或者OpenAPI方式配置和购买服务。用户在使用过程中可以完全掌控该实例,该实例在阿里云计算环境中运行,还可以配合其他云服务一起使用。当用户业务遇到业务高峰时可以在数分钟内扩展新的实例来适应业务增长。用户在虚拟化GPU服务的使用全过程中均可以享受到在线服务咨询和快速故障处理服务。

轻量级GPU云服务器的实例有哪些?

目前开放售卖基于NVIDIA Tesla P4的VGN5i实例,该实例提供八分之一到一比一的虚拟GPU加速器;
后面会上线基于NVIDIA Tesla T4的VGN6i实例,该实例提供十六分之一到一比一的虚拟GPU加速器;

轻量级GPU云服务器的适用场景有哪些?

轻量级GPU云服务器可以根据业务需求配置创建贴合业务所需计算资源的GPU云服务器实例,因此可以在每个轻量级GPU云服务器实例上仅运行一个计算业务负载,在业务峰值来临时,横向扩展某一个计算业务负载即可。这样的特性十分适合互联网业务中AI计算的批量部署以及云游戏,AR/VR在云端应用和深度学习的教学实验场景。

VGN5i的用户价值有哪些?

VGN5i的用户价值包括:降低批量部署GPU实例的成本,可以轻松实现快速弹性伸缩以及提高运维效率。
降低批量部署成本
在诸多图形计算和AI推理计算的场景中,用户通常并不要求单GPU实例的计算性能十分强大,而是更加关注业务在批量部署中的成本。小粒度的虚拟化GPU实例则更加合适这些场景,很好的平衡用户业务在批量部署中的成本需求。
实现快速弹性伸缩
拥有了小粒度的虚拟化GPU实例,用户不必再为了匹配较强的物理GPU资源而将服务部署成为复杂的胖服务节点,而是可以基于容器方式将有GPU计算需求的服务都解耦部署在不同的虚拟化GPU实例节点上。这样部署的瘦服务节点更加有利于快速弹性伸缩,在业务的任何时刻都可以应对自如,提高业务运维效率。
提高运维效率
使用小颗粒的虚拟化GPU实例进行瘦服务节点部署,使得服务环境配置和服务接口变得简单,使用不同的镜像即可部署大规模的AI应用而无需部署复杂的胖节点,提供运维效率,降低时间风险和成本。

直播观看地址:https://yq.aliyun.com/live/938
查看产品VGN5i:https://www.aliyun.com/product/ecs/gpu
VGN5i·释放GPU计算新动力:https://promotion.aliyun.com/ntms/act/vgpu.html
阿里云新品发布会频道:https://promotion.aliyun.com/ntms/act/cloud/product.html
阿里云新品发布·周刊:https://yq.aliyun.com/publication/36

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
6月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
550 1
|
6月前
|
存储 弹性计算 安全
阿里云渠道商:新手如何选择阿里云ECS实例?
阿里云ECS凭借弹性扩展、稳定可靠与安全防护,助力企业高效上云。本文系统解析实例规格选择关键因素:业务场景匹配、性能评估、成本优化、地域部署与扩展规划,结合计费模式与实际需求,提供科学选型建议,助您精准匹配资源,提升云上效能。(238字)
|
6月前
|
人工智能 城市大脑 运维
喜讯!阿里云国产异构GPU云平台技术荣获“2025算力中国·年度重大成果”
2025年8月23日,在工业和信息化部新闻宣传中心、中国信息通信研究院主办的2025中国算力大会上,阿里云与浙江大学联合研发的“国产异构GPU云平台关键技术与系统”荣获「算力中国·年度重大成果」。该评选旨在选拔出算力产业具有全局性突破价值的重大成果,是业内公认的技术创新“风向标”。
659 0
|
6月前
|
弹性计算 人工智能 前端开发
在阿里云ECS上部署n8n自动化工作流:U2实例实战
本文介绍如何在阿里云ECS的u2i/u2a实例上部署开源工作流自动化平台n8n,利用Docker快速搭建并配置定时任务,实现如每日抓取MuleRun新AI Agent并推送通知等自动化流程。内容涵盖环境准备、安全组设置、实战案例与优化建议,助力高效构建低维护成本的自动化系统。
1521 5
|
6月前
|
弹性计算 运维 安全
阿里云轻量应用服务器与云服务器ECS啥区别?新手帮助教程
阿里云轻量应用服务器适合个人开发者搭建博客、测试环境等低流量场景,操作简单、成本低;ECS适用于企业级高负载业务,功能强大、灵活可扩展。二者在性能、网络、镜像及运维管理上差异显著,用户应根据实际需求选择。
479 10

热门文章

最新文章