超摩尔定律!OpenAI官宣AI算法效率每16个月翻一番

简介: Open AI近日宣布公开追踪AI模型效率,其中算法改进是关键。报告中显示,AI算法效率每16个月翻一番,与2012年相比,训练神经网络达到AlexNet的水平所需的算力会减少到1/44。研究表明,算法改进效率吊打摩尔定律,投入大量人力物力的AI研究貌似比硬件研发收益更高。

微信图片_20220108205709.gif


OpenAI今天宣布将开始追踪机器学习模型的效率,并对AI算法演进的情况进行定量追踪,结果显示算法改进效率吊打摩尔定律。


为了启动这一进程,Open AI发表了一份分析报告,开篇即用数据展示了算法演进的速度。


报告分析显示,自2012年以来,要训练一个人工智能模型在基准测试ImageNet图像分类任务中达到同等的分类效果,所需的算力每16个月就会减少1/2 

 

微信图片_20220108205712.png


ImageNet图像分类任务


与2012年相比,现在训练一个神经网络达到 AlexNet的水平所需的算力会减少到1/44(相比之下,摩尔定律在相同时间之内,效率只有12倍左右的增长)。结果表明,对于投入了大量资金的AI研发,算法演进显然比传统的硬件进步带来了更多的收益。      


 微信图片_20220108205716.png


算法演进速度吊打摩尔定律


「算法进步是推动AI发展的关键因素。重要的是要找到方法,阐明整个算法演进的过程,尽管这比衡量计算趋势更难,」OpenAI 在官网文章中写道。


提升算法效率,可以定义为减少训练算法完成某项任务所需的算力


在很多其他领域都可以对效率进行比较,比如 DNA 测序(每10个月翻一番)、能源再生(每6年翻一番)和晶体管密度(每2年翻一番)。研究人员经常使用效率,来衡量算法在完成经典计算任务时的能力,其中就包括分类任务。


分类等传统问题上的效率提升,比机器学习中的效率更容易衡量,因为它们对任务难度的衡量更加清晰。在机器学习中,我们想要测量算法的效率,就要保持达到性能水平的恒定。


在分析中,Open AI利用开源的方法测量了各种模型达到AlexNet 水平的效率。  


    微信图片_20220108205719.png      


图为 ImageNet比赛中各种模型达到AlexNet水平的效率提升情况,图中reduction factor指的就是提升的倍数。


2019年推出的EfficientNet-b1模型达到ResNet-50相同的性能,4年的时间里所需算力减少到1/10。      


微信图片_20220108205722.png


 研究发现在机器翻译、 Go 和 Dota 2比赛中,在较短的时间内效率提升速度更快:


1 在WMT’14英语到法语的翻译基准测试中,seq2seq三年后推出的Transformer,完成相同的训练任务所需的算力减少了1/61。seqseq也是谷歌2014年推出的架构,是当时最先进的模型。       


微信图片_20220108205725.png


2 我们都知道,Deepmind 的AlphaZero是一个从零开始自学下棋的系统,他的进步速度也很快,和在他一年前推出的版本 AlphaGoZero相比,达到相同的性能,只需要8分之一的算力      


 微信图片_20220108205728.jpg


3 Open AI自己的Dota2游戏系统Open AI Five Rerun和在3个月之前推出的Open AI Five相比,达到相同的性能只需要1/5的算力。前者曾经击败过世界冠军,种子选手OG。      


微信图片_20220108205733.gif    


当然也要考虑到2012年的计算和2019年的计算不可同日而语,就像美元需要随着时间的推移发生通货膨胀一样。相同的算力在2019年可以完成比2012年更多的任务。从这个意义上讲,可以将某些AI研究进程分为两个阶段,类似于半导体中的「tick tock」发展模型。


      微信图片_20220108205737.png      


以英特尔为例, Tick年(工艺年)更新制作工艺,Tock年(架构年)更新微架构


Tick-Tock就是时钟的“嘀嗒”的意思,而在Intel的处理器发展战略上,每一个嘀嗒代表着2年一次的工艺制程进步。


每个Tick-Tock中的“Tick”,代表着工艺的提升、晶体管变小,并在此基础上增强原有的微架构,而Tick-Tock中的“Tock”,则在维持相同工艺的前提下,进行微架构的革新,这样在制程工艺和核心架构的两条提升道路上,总是交替进行。 


根据摩尔定律,一个集成电路中可容纳的晶体管数量每两年就会翻一番,OpenAI 推测演算法效率可能会超过摩尔定律。


摩尔定律是在1965年提出来的,当时集成电路只有64个晶体管。 Open AI的研究结果表明,AI研发,研究人员时间和计算能力的投入更高,算法演进效率可能会超过硬件效率。 算法效率的提升使得研究人员可以在同等的时间和经济条件下做更多想做的实验。除了作为衡量整体AI进步的指标,算法效率提升还加快了未来AI研究的速度,也意味着整体算力的提升。 


其他衡量AI进展的指标


除了效率之外,还有许多其他的衡量标准也可以揭示AI的算法演进过程。   

 

 微信图片_20220108205740.jpg


1 训练成本(以美元为单位)也是相关的衡量标准,但不再取决于算法的进步,因为它还受到底层硬件、硬件利用率和云基础设施的改进的影响。


2 采样效率也很关键,尤其是当样本数据不足时。训练模型的能力也加快了研究的速度,可以被认为是对感兴趣的学习能力的并行性的一种度量。


3 在 GPU 时间、参数和浮点运算方面,训练模型推理效率也有所提高,但这主要是由于它们的经济影响而不是对未来研究进展的影响。推理效率在5年内(每15个月翻一番)提高了18倍,这表明训练效率和推理效率可能在相同的速率下得到提高。


算法效率演进将大幅推动行业发展


 对于翻译和游戏这样的领域,如何用更少的算力来获取更好的成绩,提升大规模计算的效率是至关重要的。在重要能力方面实现最优训练效率的模型,可以用来规模化,来实现总体计算的最佳性能。


事实上,这项工作最初是通过训练 PyTorch 示例模型来完成的,通过微调来提高早期学习的效率。      


 微信图片_20220108205747.jpg  


Open AI认为,测量算法效率提升的长期趋势将有助于定量描绘整个算法演进的进程。研究表明,硬件和算法效率都是呈倍数增长的,一个良好的AI进步模型可以将二者相结合。


正是出于上述这些原因,Open AI开始公开测试最先进的算法效率。除了图像和翻译效率基准(ImageNet 和 WMT14) 测试以外,Open AI会考虑逐步增加更多的基准测试,同时Open AI鼓励学界提交他更多的测量结果(原创作者和合作者也会受到相应的奖励)。


值得注意的是,OpenAI 并不是第一个提出利用基准测试AI模型效率的公司。去年,艾伦人工智能研究所、卡内基梅隆大学和华盛顿大学的科学家们主张将效率作为AI学术论文的一个更普遍的评估标准,与准确性和相关措施并列。还有人主张要求对机器学习项目进行行业级的耗能分析,并设定每瓦特运行算力的行业标准。


「行业领袖、政策制定者、经济学家和研究人员都在努力更好地理解人工智能的进展,并决定他们应该投入多少精力,并将研究重心放在何处,」OpenAI 写道。「我们的这项测量工作可以帮助他们做出这样的决定。」


论文结尾,Open AI展望了未来,「如果在未来的几十年内,我们观察人工智能算法效率呈指数级倍增,我们不确定这会带来什么。这些结果也意味着,我们正面向着一个AI服务和技术无比强大的未来。


这个未来也许已经近在咫尺。

      微信图片_20220108205751.jpg 

参考链接:

https://venturebeat.com/2020/05/05/openai-begins-publicly-tracking-ai-model-efficiency/

https://openai.com/blog/ai-and-efficiency/#rf3

相关文章
|
23天前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
70 2
|
2月前
|
机器学习/深度学习 人工智能 UED
OpenAI o1模型:AI通用复杂推理的新篇章
OpenAI发布了其最新的AI模型——o1,这款模型以其独特的复杂推理能力和全新的训练方式,引起了业界的广泛关注。今天,我们就来深入剖析o1模型的特点、背后的原理,以及一些有趣的八卦信息。
312 73
|
22天前
|
人工智能 安全 决策智能
OpenAI推出实验性“Swarm”框架,引发关于AI驱动自动化的争论
OpenAI推出实验性“Swarm”框架,引发关于AI驱动自动化的争论
|
15天前
|
人工智能 自然语言处理 算法
【通义】AI视界|OpenAI最新发布!ChatGPT搜索功能强势来了,挑战谷歌?
本文由【通义】自动生成,精选24小时内的重要资讯:OpenAI推出ChatGPT搜索功能挑战谷歌,微软披露130亿美元投资OpenAI,Reddit首次盈利股价暴涨20%,软银CEO孙正义看好英伟达及“超级AI”前景,谷歌云与沙特PIF共建全球AI中心。更多内容请访问通通知道。
|
22天前
|
机器学习/深度学习 人工智能 安全
AI真的能与人类数据科学家竞争吗?OpenAI的新基准对其进行了测试
AI真的能与人类数据科学家竞争吗?OpenAI的新基准对其进行了测试
|
23天前
|
机器学习/深度学习 人工智能 算法
"拥抱AI规模化浪潮:从数据到算法,解锁未来无限可能,你准备好迎接这场技术革命了吗?"
【10月更文挑战第14天】本文探讨了AI规模化的重要性和挑战,涵盖数据、算法、算力和应用场景等方面。通过使用Python和TensorFlow的示例代码,展示了如何训练并应用一个基本的AI模型进行图像分类,强调了AI规模化在各行业的广泛应用前景。
27 5
|
1月前
|
人工智能 自然语言处理 安全
【通义】AI视界|Adobe推出文生视频AI模型,迎战OpenAI和Meta
本文精选了过去24小时内的重要科技新闻,包括微软人工智能副总裁跳槽至OpenAI、Adobe推出文本生成视频的AI模型、Meta取消高端头显转而开发超轻量设备、谷歌与核能公司合作为数据中心供电,以及英伟达股价创下新高,市值接近3.4万亿美元。这些动态展示了科技行业的快速发展和激烈竞争。点击链接或扫描二维码获取更多资讯。
|
1月前
|
机器学习/深度学习 人工智能 算法
【通义】AI视界|若未来三年无法盈利,OpenAI或被微软收购!
本文精选了24小时内的重要科技新闻,包括苹果即将发布的全新智能家居战略、OpenAI若未来三年无法盈利或被微软收购的消息、Meta建议网友用AI生成极光照片引发争议,以及黄仁勋对马斯克的高度评价。登录通义官网了解更多功能。
|
1月前
|
人工智能 缓存 搜索推荐
OPENAI DevDay 2024:推动AI技术的新边界
在今年的OPENAI DevDay活动中,尽管形式更为低调,但OpenAI依然带来了四项令人瞩目的技术创新,展示了其在推动人工智能开发者生态方面的持续努力,以及向更高效、用户友好的AI工具转型的决心。我将为大家详细介绍这些新产品
126 10
|
1月前
|
机器学习/深度学习 人工智能 开发框架
【AI系统】AI 学习方法与算法现状
在人工智能的历史长河中,我们见证了从规则驱动系统到现代机器学习模型的转变。AI的学习方法基于深度神经网络,通过前向传播、反向传播和梯度更新不断优化权重,实现从训练到推理的过程。当前,AI算法如CNN、RNN、GNN和GAN等在各自领域取得突破,推动技术进步的同时也带来了更大的挑战,要求算法工程师与系统设计师紧密合作,共同拓展AI技术的边界。
72 1
下一篇
无影云桌面