单颗GPU计算能力太多、太贵?阿里云发布云上首个轻量级GPU实例

简介: 阿里云发布了国内首个公共云上的轻量级GPU异构计算产品——VGN5i实例,该实例打破了传统直通模式的局限,可以提供比单颗物理GPU更细粒度的服务,从而让客户以更低成本、更高弹性开展业务。

在硅谷举办的2019年NVIDIA GPU技术大会(GTC)上,阿里云发布了国内首个公共云上的轻量级GPU异构计算产品——VGN5i实例,该实例打破了传统直通模式的局限,可以提供比单颗物理GPU更细粒度的服务,从而让客户以更低成本、更高弹性开展业务。

test


在该实例发布之前,业内均采用以单颗物理GPU为单位的云端异构计算服务,这有利于客户获得强有力的计算能力。如阿里云在2017年10月推出了业界最全的异构计算家族,以及基于一个异构平台的高性能计算平台E-HPC,为用户提供单颗起步至超大规模的弹性计算服务。当用户业务遇到业务高峰时可以在数分钟内实现扩容,大幅降低了企业使用异构计算能力的门槛,目前已服务于新浪微博、旷视科技、中国工程院等众多企业和机构。

然而,在不少使用异构计算服务的场景中,“计算资源过剩”问题也尤为明显。以云游戏为例,企业通常仅需要一颗物理GPU几分之一的计算能力即可流畅完成图形或视觉计算;人工智能领域也存在类似问题,深度学习推理场景对GPU的计算资源消耗可能仅仅是训练阶段的数十分之一,甚至更少。对于这类应用场景而言,轻量级计算异构产品可以提升系统灵活性,并大幅降低成本。

而阿里云本次首家提供云上轻量级GPU实例,意味着用户可以用更细粒度的计算资源开启业务。该产品基于NVIDIA Tesla P4 GPU,支持多种规格,企业可以按需选择实例规格或者在云市场选择NVIDIA Quadro虚拟工作站,适用于云游戏、AR/VR以及图形处理等随需应变的GPU计算场景。

阿里云表示,5月还将发布基于NVIDIA T4的GPU异构计算产品VGN6i实例,NVIDIA T4采用最新的Turing架构,在虚拟化环境中更为灵活,可加速深度学习和推理工作流程的Tensor Core,以及可加速光线追踪和批量渲染的RT Core。

该产品由阿里云与NVIDIA合作研发,集成了阿里云智能资源调度技术,用户可以按需选择适量的计算资源;同时,还采用了安全隔离技术,实现不同用户之间的强隔离,有效防止信息泄漏;除此之外,QoS控制技术保障了每个用户的GPU资源不被其他租户抢占。

阿里云智能异构计算产品专家张新涛表示,“随着轻量级GPU异构计算产品的推出,阿里云实现了GPU的异构计算场景全覆盖,可以为用户提供从从轻量到高性能计算的服务。”

云端异构计算并非单纯地堆积硬件性能,需要做深度的软硬件结合及优化才能发挥其性能优势。阿里巴巴集团在异构计算领域拥有多年研发经验,该技术大规模应用于拍立淘、商品分类等场景。

作为全球前三、国内第一的云服务商,阿里云拥有丰富的异构计算产品,具备智能调度、自动运维、实时扩容等能力,结合业界首个自研的异构计算加速框架Ali-Perseus,可以同时支持TensorFlow、Caffe、MxNet、Pytorch等流行机器学习框架在集群训练和推理时的加速,最高可以将深度学习任务成本降低50%以上。
2018年12月,在斯坦福大学发布的最新DAWNBench深度学习推理榜单,阿里云异构计算获得了图像识别性能及成本双料冠军。

直播观看地址:https://yq.aliyun.com/live/938
查看产品VGN5i:https://www.aliyun.com/product/ecs/gpu
VGN5i·释放GPU计算新动力:https://promotion.aliyun.com/ntms/act/vgpu.html
阿里云新品发布会频道:https://promotion.aliyun.com/ntms/act/cloud/product.html
阿里云新品发布·周刊:https://yq.aliyun.com/publication/36

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
2月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
291 1
|
2月前
|
人工智能 城市大脑 运维
喜讯!阿里云国产异构GPU云平台技术荣获“2025算力中国·年度重大成果”
2025年8月23日,在工业和信息化部新闻宣传中心、中国信息通信研究院主办的2025中国算力大会上,阿里云与浙江大学联合研发的“国产异构GPU云平台关键技术与系统”荣获「算力中国·年度重大成果」。该评选旨在选拔出算力产业具有全局性突破价值的重大成果,是业内公认的技术创新“风向标”。
304 0
|
2月前
|
人工智能 并行计算 PyTorch
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
270 4
|
3月前
|
存储 人工智能 弹性计算
阿里云gpu云服务器收费价格,热门实例简介和最新按量、1个月、1年收费标准参考
在阿里云所有gpu云服务器实例规格中,计算型gn5、gn6i、gn6v、gn7i和最新推出的gn8is、gn8v-tee等实例规格是其中比较热门的gpu云服务器实例。阿里云gpu云服务器最新租用价格参考,适合AI推理/训练的16核60G+1张A10 24G显存(gn7i-c16g1.4xlarge),按量优惠价1.9/小时起。本文为大家展示阿里云gpu云服务器中gn5、gn6i等热门实例规格的主要性能和适用场景以及最新按量和1个月、1年收费标准,以供参考。
|
2月前
|
机器学习/深度学习 人工智能 芯片
42_大语言模型的计算需求:从GPU到TPU
随着2025年大语言模型技术的持续突破和规模化应用,计算资源已成为推动AI发展的关键驱动力。从最初的CPU计算,到GPU加速,再到专用AI加速器的崛起,大语言模型的计算需求正在重塑全球数据中心的基础设施架构。当前,全球AI半导体市场规模预计在2027年将达到2380亿美元(基本情境)甚至4050亿美元(乐观情境),这一增长背后,是大语言模型对计算能力、内存带宽和能效比的极致追求。
|
3月前
|
机器学习/深度学习 人工智能 容灾
硅谷GPU云托管:驱动AI革命的下一代计算基石
在人工智能与高性能计算席卷全球的今天,硅谷作为科技创新的心脏,正通过GPU云托管服务重新定义计算能力的边界。无论您是初创公司的机器学习工程师,还是跨国企业的研究团队,硅谷GPU云托管已成为实现突破性创新的关键基础设施。
|
7月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
1201 61
|
10月前
|
存储 机器学习/深度学习 人工智能
2025年阿里云GPU服务器租用价格、选型策略与应用场景详解
随着AI与高性能计算需求的增长,阿里云提供了多种GPU实例,如NVIDIA V100、A10、T4等,适配不同场景。2025年重点实例中,V100实例GN6v单月3830元起,适合大规模训练;A10实例GN7i单月3213.99元起,适用于混合负载。计费模式有按量付费和包年包月,后者成本更低。针对AI训练、图形渲染及轻量级推理等场景,推荐不同配置以优化成本和性能。阿里云还提供抢占式实例、ESSD云盘等资源优化策略,支持eRDMA网络加速和倚天ARM架构,助力企业在2025年实现智能计算的效率与成本最优平衡。 (该简介为原文内容的高度概括,符合要求的字符限制。)
|
8月前
|
存储 机器学习/深度学习 算法
阿里云X86/ARM/GPU/裸金属/超算等五大服务器架构技术特点、场景适配与选型策略
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别。本文将深入解析这些架构的特点、优势及适用场景,帮助用户更好地根据实际需求做出选择。

热门文章

最新文章