【20 亿美元赌注】英伟达推出深度学习芯片,人工智能进入主流时代

简介:
硬件能力
 

基于GPU并行处理的优势,Tesla P100能够实现数百CPU服务器节点性能。DGX-1采用NVIDIA新Pascal架构的Tesla P100显卡系列,数据处理速度是NVIDIA 此前Maxwell架构——才刚于2014年推出 ——显卡系列的12倍。据NVIDIA官网消息,DGX-1共装入8组各内建16BG存储器的Tesla P100显卡,配置英特尔 E5-2698 v3 处理器,7 TB的SSD硬盘用作深度学习高速缓存,系统存储器部分最大可支持512GB DDR4的内存容量,半精度条件每秒浮点运算峰值性能170万亿次,运算能力相当于250台X86服务器搭建的机群。不过,这台超级计算机的功耗高达3200W,让新智元记者认为其能效比或许是个问题。


在NVIDIA官方新闻中,Facebook人工智能实验室负责人Yann LeCun在评论Pascal架构时表示:“NVIDIA GPU正在加速人工智能的发展进程。随着神经网络越变越大,我们不仅需要内存更大、速度更快的GPU,也需要大幅提升GPU间的通信速度以及能够利用降低精度进行运算的硬件。这些正是Pascal所具备的特点。”


软件优化
 

软件方面,DGX-1装载了一套针对深度学习进行优化的软件功能,包括用于设计深度神经网络的NVIDIA深度学习GPU训练系统(Deep Learning GPU Training System,DIGITS),以及最新发布的第5版CUDA深度神经网络库(CUDA Deep Neural Network library,cuDNN)。此外,DGX-1内提供一些优化版的广泛应用深度学习框架,如Caffe、Theano、Torch。系统还搭配一套云端存取管理工具、软件更新,以及一个容器化应用库。


测试结果


以往25个小时才能消化的运算任务现在只需要2小时。来源:cnbeta.com

官方宣称DGX-1相当于250个X86服务器搭建的机群。来源:cnbeta.com

NVIDIA 在硬件和软件领域都对深度学习进行了特别的优化。作为芯片产业的巨头,在年度最重要的GPU技术大会上,黄仁勋演讲超过一半的篇幅都和深度学习相关。 本届GTC技术大会专门发布了深度学习芯片Tesla P100和超级计算机DGX-1,还推出了一系列围绕人工智能和深度学习的相关设备和GPU新品。
 
芯片是整个智能产业的发动机,也是市场成熟度的关键指标,而且计算能力的飞速发展,意味着芯片制造商必须要在几年之内获得相应的市场回报。NVIDIA 敢于Tesla P100上投下这笔高达20多亿美元的赌注,可以预计深度学习和人工智能正逐步走向主流市场。

NVIDIA的野心


黄仁勋在会上表示,如今的数据科学家和AI研究者在“home-brewed”的高性能计算解决方案上耗费了大量时间,NVIDIA研发和部署DGX-1只有一个目的:解放超越人类的能力,并将其用于解决一度无法解决的问题。
 
近年来,随着深度学习应用大量涌现,超级计算机的架构逐渐向深度学习应用优化,从传统CPU为主GPU为辅的英特尔处理器变为GPU为主CPU为辅的结构。在这样的背景下,作为GPU的发明人和芯片领域的领头羊之一,NVIDIA实际上早在5年前便涉足人工智能和深度学习相关应用,积极拓展市场。其中,值得注意的是自动驾驶汽车领域。谷歌的自动驾驶汽车一直使用NVIDIA的Tegra处理器;2015年3月,NVIDIA推出了Drive PX 2无人驾驶平台,据称每秒能够执行24万亿次深度学习任务。不仅如此,包括宝马、福特在内的全球50多家汽车制造商和供应商都在使用或测试NVIDIA的Drive PX平台。美国汽车专业调查公司IHS Automotive称NVIDIA的产品“将成为未来汽车的大脑”。

 

据参会台湾记者余志浩在iT Home网站报道:黄仁勋在会上频频提到深度学习技术及其将给各个产业带来的颠覆性变革;黄仁勋表示,深度学习技术不止是一种算法或App,更将成为一种全新的计算模式(Computing Model),从而令深度学习成为未来所有企业乃至个人都不能忽视的大事。
 

黄仁勋透露,NVIDIA与加州大学、斯坦福大学、麻省理工大学等领先科研团队达成合作,将DGX-1提供给后者用于进行深度学习训练。目前P100芯片已经投入量产,预计今年就会在云计算公司启用。此外,IBM、Dell、HP等主流服务器厂商也在生产搭载Tesla P100显卡的服务器,预计2017年第一季度上市。

文章转载自新智元公众号 原文链接

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
2月前
|
机器学习/深度学习 人工智能 安全
探索AI的未来:从机器学习到深度学习
【10月更文挑战第28天】本文将带你走进AI的世界,从机器学习的基本概念到深度学习的复杂应用,我们将一起探索AI的未来。你将了解到AI如何改变我们的生活,以及它在未来可能带来的影响。无论你是AI专家还是初学者,这篇文章都将为你提供新的视角和思考。让我们一起探索AI的奥秘,看看它将如何塑造我们的未来。
85 3
|
21天前
|
机器学习/深度学习 人工智能 算法
猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
221 55
|
2月前
|
机器学习/深度学习 人工智能 TensorFlow
人工智能浪潮下的自我修养:从Python编程入门到深度学习实践
【10月更文挑战第39天】本文旨在为初学者提供一条清晰的道路,从Python基础语法的掌握到深度学习领域的探索。我们将通过简明扼要的语言和实际代码示例,引导读者逐步构建起对人工智能技术的理解和应用能力。文章不仅涵盖Python编程的基础,还将深入探讨深度学习的核心概念、工具和实战技巧,帮助读者在AI的浪潮中找到自己的位置。
|
2月前
|
机器学习/深度学习 数据采集 人工智能
AI赋能教育:深度学习在个性化学习系统中的应用
【10月更文挑战第26天】随着人工智能的发展,深度学习技术正逐步应用于教育领域,特别是个性化学习系统中。通过分析学生的学习数据,深度学习模型能够精准预测学生的学习表现,并为其推荐合适的学习资源和规划学习路径,从而提供更加高效、有趣和个性化的学习体验。
170 9
|
1月前
|
人工智能 并行计算 程序员
【AI系统】SIMD & SIMT 与芯片架构
本文深入解析了SIMD(单指令多数据)与SIMT(单指令多线程)的计算本质及其在AI芯片中的应用,特别是NVIDIA CUDA如何实现这两种计算模式。SIMD通过单指令对多个数据进行操作,提高数据并行处理能力;而SIMT则在GPU上实现了多线程并行,每个线程独立执行相同指令,增强了灵活性和性能。文章详细探讨了两者的硬件结构、编程模型及硬件执行模型的区别与联系,为理解现代AI计算架构提供了理论基础。
80 12
|
30天前
|
机器学习/深度学习 人工智能 自然语言处理
揭秘人工智能:深度学习的奥秘与实践
在本文中,我们将深入浅出地探索深度学习的神秘面纱。从基础概念到实际应用,你将获得一份简明扼要的指南,助你理解并运用这一前沿技术。我们避开复杂的数学公式和冗长的论述,以直观的方式呈现深度学习的核心原理和应用实例。无论你是技术新手还是有经验的开发者,这篇文章都将为你打开一扇通往人工智能新世界的大门。
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
深入理解人工智能中的深度学习技术及其最新进展
深入理解人工智能中的深度学习技术及其最新进展
184 12
|
1月前
|
人工智能 数据安全/隐私保护 数据中心
“芯片围城”下国产AI要放缓?答案或截然相反
12月2日,美国对华实施新一轮出口限制,将140余家中国企业列入贸易限制清单。对此,中国多个行业协会呼吁国内企业谨慎选择美国芯片。尽管受限企业表示影响有限,但此事件引发了关于AI领域芯片供应的担忧。华为云推出的昇腾AI云服务,提供全栈自主的算力解决方案,包括大规模算力集群、AI框架等,旨在应对AI算力需求,确保算力供给的稳定性和安全性,助力中国AI产业持续发展。
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
揭秘AI:深度学习的奥秘与实践
本文将深入浅出地探讨人工智能中的一个重要分支——深度学习。我们将从基础概念出发,逐步揭示深度学习的原理和工作机制。通过生动的比喻和实际代码示例,本文旨在帮助初学者理解并应用深度学习技术,开启AI之旅。
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
深入理解人工智能中的深度学习技术及其最新进展
深入理解人工智能中的深度学习技术及其最新进展