阿里云异构计算产品家族亮相 覆盖全场景AI和高性能计算需求

简介: 9月12日,阿里云宣布推出全新一代异构加速平台,为人工智能产业提供多场景化的全球加速能力。这是阿里云异构计算家族首次亮相,涵盖GPU、FPGA在内等6款异构实例,可满足从图形渲染到高性能计算及人工智能等复杂应用的计算需求。
    计算正推动着人工智能产业更大规模的爆发。
  9月12日,阿里云宣布推出全新一代异构加速平台,为人工智能产业提供多场景化的全球加速能力。这是阿里云异构计算家族首次亮相,涵盖GPU、FPGA在内等6款异构实例,可满足从图形渲染到高性能计算及人工智能等复杂应用的计算需求。特别是在人工智能领域,可将深度学习成本缩减一半,大幅降低人工智能计算门槛;而基于阿里云异构平台的全新高性能计算实例E-HPC,可一键部署获得媲美大型超算集群环境的“云上超算中心”。
  这是继企业级ECS家族全线升级后,阿里云再次在企业级市场推出专业服务,将异构计算的使能领域从人工智能扩大到更广的计算需求领域。新品具备更强的并行能力和多场景支持,不仅全力支撑人工智能计算力升级需求,也为图形计算、生命科学、材料力学、分子动力学等科研计算领域提供普惠计算能力。

“人工智能浪潮催生的计算迭代需求远超摩尔定律,阿里云希望为人工智能产业提供最强的计算能力,我们开放了视频识别、语音识别、图像识别等人工智能服务及ET工业大脑、医疗大脑场景解决方案,今天我们推出的异构计算加速平台,将进一步完善人工智能产业生态,满足更多客户的核心业务需求。”阿里云异构计算负责人张献涛表示。

为深度学习而生 GPU实例GN5i降低人工智能成本50%
阿里云此次推出适用于深度学习在线推理(Inference)的GPU实例GN5i,采用了英伟达 Pascal架构P4图形处理器,提供最大45Tops INT8整型计算能力和11TFlops FP32单精度浮点计算能力。可根据深度学习计算力的要求,进行GPU实例的“Scale-out”水平扩容或“Scale-up”垂直变配,分钟级即可完成实例的创建。下半年,阿里云还推出搭载目前性能最强GPU V100的高性能GPU实例,大幅提升深度学习的处理效率。
据阿里云高级技术专家龙欣介绍,在面向AI深度学习在线推理场景时,GN5i实例依托专有推理型GPU和阿里云高性能SSD云存储和OSS存储服务,在满足数据处理IO的基础上,时延最低可达微秒级;另外,GN5i可一键部署TensorFlow、Caffe等主流深度学习框架,提供智能调度、自动运维、实时扩容等服务,有效降低人工智能在线服务成本50%以上。

全新FPGA实例F2 加快人工智能产业落地

  作为异构计算近些年来的新宠,功耗低、实时性强的FPGA普遍被业界看好,提供云上基于FPGA的高效灵活场景化并行计算能力,已成为公共云的基础服务。阿里云2017年初推出了基于英特尔Arria 10芯片的FPGA计算实例,已帮助大量用户通过自定义加速算法,实现云上FPGA加速业务的一键部署、快速研发和弹性伸缩,有效提升了人工智能及深度学习的效率,为企业节省成本。

此次发布的F2实例基于赛灵思Xilinx KU115器件,提供145万逻辑门电路,单实例的单精度浮点计算性能可达1.5TFlops。随着集成英特尔(F1)和赛灵思(F2)芯片的FPGA计算实例相继面世,阿里云率先完成对主流FPGA方案的全覆盖,成为全球FPGA领域产品线最全、场景最多的公共云服务商。再加上阿里云业已推出的FPGA镜像市场,可帮助用户完成更多定制化FPGA加速方案,提高特定业务和算法的效率。

相比GPU和CPU,FPGA更适合非标数据位宽的人工智能、金融分析、基因匹配、物联网数据库等领域。龙欣介绍,阿里云针对非标准位宽场景做了大幅优化,以物联网时序数据库为例,F2的处理效率可比CPU高30倍,为用户大幅降低硬件加速时间和成本。“阿里云希望提供一个弹性、完善的FPGA开发环境,帮助用户缩短开发周期,并以最低的成本、最大的灵活度在云端快速搭建完整的硬件加速服务。“龙欣表示。

国内首家公共云HPCaaS产品E-HPC 超算界的“青藏高原”
而针对传统对高性能计算有强烈需求的高校科研机构和企业用户,阿里云异构计算家族则推出了弹性高性能计算实例E-HPC,这也是中国首个公共云上的HPC as a Service产品。E-HPC基于阿里云异构计算平台在高性能虚拟化、并行计算、低延迟网络和HPC软件栈等方面的特性,帮助生命科学,气象预报,石油勘探,工业设计和航空航天等领域的客户,快速获得高性能计算集群计算能力、调度能力和软件能力,按需组建自己的“云上超算中心”,并可实现一键部署和弹性伸缩。
“如果把传统超算中心比作‘珠穆朗玛峰’,那么阿里云的E-HPC则是将高性能计算做更普惠的覆盖,成为高性能计算的‘青藏高原’。” 阿里云资深专家何万青表示。

   阿里巴巴集团内部很多业务通过异构计算取得非常好的计算加速效果,比如拍立淘、以图搜图、商品分类等,这些解决方案正通过阿里云对外输出;再加上阿里云基础设施在25G网络、第三代分布式存储、遍布全球的13个区域的数据中心及高可用骨干网等方面的不断创新,可为人工智能提供高性能、弹性伸缩和业务永续的加速引擎。

 

何万青博士很精彩地分享了鸡蛋能不能生吃?有些因素,是如何通过计算得到的结论,精彩极了。

   除了产品层面,阿里云还提供了全方位的人工智能产业服务,包括智能语音交互、图像/视频识别、交通预测、情感分析等技术服务,这些技术正通过阿里云ET为客户服务。过去一年,阿里云推出ET城市大脑、ET工业大脑、ET医疗大脑等行业垂直的人工智能系统,将人工智能技术落地到产业中去。

在10月11日举行的2017杭州云栖大会上,阿里云还将推出更多个性化的人工智能产品及服务,期间将有20余场人工智能相关的峰会和分论坛,涉及基础设施、AI基础技术、AI产品以及AI行业解决方案等领域。阿里巴巴及合作伙伴将分享AI在数据中心、电子商务、工业制造、城市管理、艺术设计等行业的前沿经验,并展示最新技术。

目录
相关文章
|
8天前
|
存储 人工智能 算法
【AI系统】计算与调度
本文探讨了计算与调度的概念,特别是在神经网络和图像处理中的应用。通过分离算法定义和计算组织,Halide 等工具能够显著提升图像处理程序的性能,同时保持代码的简洁性和可维护性。文章详细介绍了计算与调度的基本概念、调度树的构建与约束,以及如何通过调度变换优化计算性能。此外,还讨论了自动调优方法在大规模调度空间中的应用,展示了如何通过探索和预测找到最优的调度方案。
27 0
|
5天前
|
存储 人工智能 算法
【AI系统】计算图的优化策略
本文深入探讨了计算图的优化策略,包括算子替换、数据类型转换、存储优化等,旨在提升模型性能和资源利用效率。特别介绍了Flash Attention算法,通过分块计算和重算策略优化Transformer模型的注意力机制,显著减少了内存访问次数,提升了计算效率。此外,文章还讨论了内存优化技术,如Inplace operation和Memory sharing,进一步减少内存消耗,提高计算性能。
58 34
【AI系统】计算图的优化策略
|
4天前
|
机器学习/深度学习 人工智能 前端开发
【AI系统】计算图的控制流实现
计算图作为有向无环图(DAG),能够抽象神经网络模型,但在编程中遇到控制流语句(如if、else、while、for)时,如何表示成为难题。引入控制流后,开发者可构建更复杂的模型结构,但部署含控制流的模型至不支持Python的设备上较为困难。目前,PyTorch仅支持Python控制流,而TensorFlow通过引入控制流原语来解决此问题。计算图的动态与静态实现各有优劣,动态图易于调试,静态图利于优化。
22 5
【AI系统】计算图的控制流实现
|
4天前
|
机器学习/深度学习 存储 人工智能
【AI系统】计算图与自动微分
自动求导利用链式法则计算雅可比矩阵,从结果节点逆向追溯计算路径,适用于神经网络训练中损失值对网络参数的梯度计算。AI框架中,自动微分与反向传播紧密相连,通过构建计算图实现高效梯度计算,支持动态和静态计算图两种模式。动态图如PyTorch,适合灵活调试;静态图如TensorFlow,利于性能优化。
27 6
【AI系统】计算图与自动微分
|
4天前
|
机器学习/深度学习 人工智能 算法
【AI系统】计算图挑战与未来
当前主流AI框架采用计算图抽象神经网络计算,以张量和算子为核心元素,有效表达模型计算逻辑。计算图不仅简化数据流动,支持内存优化和算子调度,还促进了自动微分功能的实现,区分静态图和动态图两种形式。未来,计算图将在图神经网络、大数据融合、推理部署及科学计算等领域持续演进,适应更复杂的计算需求。
34 5
【AI系统】计算图挑战与未来
|
4天前
|
机器学习/深度学习 人工智能 PyTorch
【AI系统】计算图基本介绍
近年来,AI框架如TensorFlow和PyTorch通过计算图描述神经网络,推动了AI技术的发展。计算图不仅抽象了神经网络的计算表达,还支持了模型算子的高效执行、梯度计算及参数训练。随着模型复杂度增加,如MOE、GAN、Attention Transformer等,AI框架需具备快速分析模型结构的能力,以优化训练效率。计算图与自动微分紧密结合,实现了从前向计算到反向传播的全流程自动化。
24 4
【AI系统】计算图基本介绍
|
5天前
|
存储 机器学习/深度学习 人工智能
【AI系统】计算图优化架构
本文介绍了推理引擎转换中的图优化模块,涵盖算子融合、布局转换、算子替换及内存优化等技术,旨在提升模型推理效率。计算图优化技术通过减少计算冗余、提高计算效率和减少内存占用,显著改善模型在资源受限设备上的运行表现。文中详细探讨了离线优化模块面临的挑战及解决方案,包括结构冗余、精度冗余、算法冗余和读写冗余的处理方法。此外,文章还介绍了ONNX Runtime的图优化机制及其在实际应用中的实现,展示了如何通过图优化提高模型推理性能的具体示例。
29 4
【AI系统】计算图优化架构
|
5天前
|
机器学习/深度学习 存储 人工智能
【AI系统】自定义计算图 IR
本文介绍了模型转换的方法及流程,重点讲解了计算图的自定义方法和优化技术。通过IR(Intermediate Representation)将不同AI框架的模型转换为统一格式,实现跨平台高效部署。计算图由张量和算子构成,支持多种数据类型和内存排布格式,通过算子融合等优化技术提高模型性能。文章还详细说明了如何使用FlatBuffers定义计算图结构,包括张量、算子和网络模型的定义,为自定义神经网络提供了实践指南。
20 3
【AI系统】自定义计算图 IR
|
4天前
|
机器学习/深度学习 人工智能 PyTorch
【AI系统】计算图原理
本文介绍了AI框架中使用计算图来抽象神经网络计算的必要性和优势,探讨了计算图的基本构成,包括标量、向量、矩阵、张量等数据结构及其操作,并详细解释了计算图如何帮助解决AI工程化中的挑战。此外,文章还通过PyTorch实例展示了动态计算图的特点和实现方法,包括节点(张量或函数)和边(依赖关系)的定义,以及如何通过自定义Function实现正向和反向传播逻辑。
29 7
|
4天前
|
人工智能 调度 算法框架/工具
【AI系统】计算图的调度与执行
深度学习训练过程涉及前向计算、计算损失及更新权重参数。AI框架通过计算图统一表示训练过程,算子作为计算图的节点,由后端硬件高效执行。计算图调度包括算子间的调度、并发调度和异构调度,确保计算资源的有效利用。图执行模式分为单算子执行、整图下沉执行和图切分多设备执行,适应不同场景需求。以PyTorch为例,其算子执行通过两次调度选择合适的Kernel进行张量操作,并支持自动求导。
24 5