GPT-3和AlphaFold 2震撼2020,2021年AI最大看点在哪儿?

简介: 2020年,GPT-3和AlphaFold 2两项基于Transformer的突破杀出重围,走进主流视野,人工智能以全新的方式深入我们的生活,2021年又将给我们带来什么新的突破呢?

微信图片_20220112130637.jpg


2020年并不缺重磅新闻,但人工智能依然够杀出重围,走进主流视野。 尤其是GPT-3,它展示了人工智能即将以全新的方式深入我们的日常生活。 


微信图片_20220112130639.jpg


这些进步赋予了未来很多可能,预测未来变得并不容易,但伴随着技术应用的成熟,另一些领域的突破也是可预见的。 以下是2021年人工智能有望取得突破的几个方面。


GPT-3和AlphaFold背后的Transformer


2020年最大的两项人工智能成就悄无声息地共享着相同的基本结构。OpenAI 的 GPT-3和 DeepMind 的 AlphaFold 都是基于Transformer.


微信图片_20220112130641.png


尽管 Transformer 自2017年以来就已经存在,但 GPT-3和 Alphafold 展示了 Transformer 的非凡能力,它比上一代序列模型学习得更深入、更快,并且在自然语言处理(NLP)之外的问题上也表现出色。 


与循环神经网络(RNN)和 长短期记忆网络(LSTMs)等之前的序列模型结构不同。 


Transformer能够一次处理整个输入序列,并且引入「注意力」机制来了解输入的哪些部分与其他部分相关。


微信图片_20220112130643.jpg


这样,Transformer就能够轻松解决「长期记忆」的问题,这是循环模型一直在努力解决的问题。 


另外,Transformer还允许并行训练,能够更好地利用近年来出现的大规模并行处理器,大大减少了训练时间。 毫无疑问,2021年研究人员将为Transformer寻找新的用武之地,对Transformer将要带来突破也充满信心。 


2021年,OpenAI 已经修改了 GPT-3,发布了DALL-E,使其完成从文本描述生成图像。Transformer已经准备好要在2021年大展拳脚了。 


微信图片_20220112130645.gif


2021年,图神经网络(GNN)发展的两大看点


许多领域的数据自然而然地适用于图形结构,比如计算机网络、社交网络、分子/蛋白质和运输路线等。 图神经网络(GNNs)使深度学习应用于图形结构化数据,我们期望 GNN在未来发挥更大的作用。


微信图片_20220112130646.png 

2021年,我们预计在几个关键领域的方法进步将推动更广泛地应用GNN. 「动态图」是第一个重要的领域。


尽管迄今为止大多数 GNN 研究都假定了一个静态图,但这些情况会慢慢发生变化: 例如,在社交网络中,新成员的加入会产生新的节点 ,关系也会发生变化。 


在2020年,我们看到了一些将时间演化图建模为一系列快照的做法,2021年这个新生的研究方向将会扩展,侧重于将动态图表建模为连续时间序列的方法。 这样的连续建模,除了通常的拓扑结构外,还应该使 GNN 能够发现和学习图中的时态结构。 


对「消息传递范式」的改进将是另一大可操作的进展。消息传递是实现图神经网络的一种常用方法,它是通过沿着连接邻居的边「传递」信息来聚集节点信息的一种方法。 


虽然直观,消息传递难以捕捉到需要信息在图上长距离传播的效果。 2021年,我们期待突破这一范式,例如通过迭代学习哪些信息传播路径是最相关的,甚至学习一个全新的关系数据集的因果图。


2021年的AI应用


去年许多头条新闻都强调了AI在实际应用中的新进展,2021年这些进展有望投入市场。


微信图片_20220112130649.jpg 

值得说明的是,由于GPT-3的API将更加可行,依赖于自然语言理解的应用程序也会越来越多。API允许用户访问GPT-3的功能,并且无需耗费精力训练自己的AI。 Microsoft已经获得了GPT-3独家使用授权,这项技术也许会出现在Microsoft的产品中。


微信图片_20220112130651.png


在2021年,其他应用领域也将从AI技术中获益。AI和机器学习虽然已经进入了网络安全领域,但2021年将会爆发更大的潜力。 正如太阳风黑客事件所揭露的那样,一些公司已经面临网络犯罪分子和先进的恶意勒索软件的威胁。


微信图片_20220112130652.png 

而AI和行为分析对于帮助识别新威胁甚至早期威胁至关重要。所以在2021年,希望能够推动最新的行为来分析AI,增强网络防御系统。 2021年,我们还期待有更多默认在边缘设备上运行机器学习模型的应用程序。 像谷歌的 Coral这样具有TPU的设备,随着处理能力和量化技术的进步,也能够推广普及。


微信图片_20220112130654.png


图为Carol加速器模块,带有Google Edge TPU的新型多芯片模块。 Edge AI则消除了把数据发送到云上参照的需求,既节省了带宽又减少了执行时间,这两点对医疗保健等领域都至关重要。 


微信图片_20220112130656.png 


边缘计算的应用程序还可以在一些需要隐私、安全和低延迟的区域,甚至世界上无法访问高速Internet的区域中打开。 


未来难测,未来可期


随着AI技术在实际领域的运用越来越广泛,Transformer和GNN的进步也会促使它们在现有的AI技术和算法更进一步。以上只是重点介绍了几个有望在今年取得进展的领域,不过相信伴随进展的还会有更多的惊喜。 


未来难测,但无论对错,2021年对于AI都将是令人兴奋的一年。


参考链接:

https://venturebeat.com/2021/01/31/heres-where-ai-will-advance-in-2021/

相关文章
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
102 2
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
o1医学领域大胜GPT-4,性能暴涨!顶尖华人团队激动发文:离AI医生越来越近了
【10月更文挑战第29天】近日,一支顶尖华人团队发布论文《A Preliminary Study of o1 in Medicine: Are We Closer to an AI Doctor?》,揭示了OpenAI最新语言模型o1在医学领域的卓越表现。研究显示,o1在概念识别、文本总结、问答等任务上远超GPT-4,显著提升了医学领域的AI应用水平,向实现AI医生的目标迈进了一大步。
19 3
|
17天前
|
机器学习/深度学习 人工智能 自然语言处理
开源版GPT-4o来了,AI大神Karpathy盛赞!67页技术报告全公开
【10月更文挑战第20天】近日,开源版GPT-4o的发布成为AI领域的焦点。作为GPT系列的最新成员,GPT-4o在性能和多模态数据处理方面实现了显著提升,得到了知名AI专家Andrej Karpathy的高度评价。该模型的开源特性将进一步促进AI研究的进展。
36 3
|
2月前
|
人工智能 安全 测试技术
忘掉GPT-5!OpenAI推出全新AI模型系列o1,声称性能达到博士级
忘掉GPT-5!OpenAI推出全新AI模型系列o1,声称性能达到博士级
|
2月前
|
人工智能 自然语言处理 算法
GPT-4无师自通预测蛋白质结构登Nature子刊!LLM全面进军生物学,AlphaFold被偷家?
【9月更文挑战第17天】近日,《自然》子刊发表的一篇论文展示了GPT-4在预测蛋白质结构方面的惊人能力,这一突破不仅揭示了大型语言模型在生物学领域的巨大潜力,还可能影响传统预测工具如AlphaFold的地位。研究人员发现,GPT-4仅通过自然语言处理就能准确预测蛋白质的三维结构,包括常见的氨基酸序列和复杂的α-螺旋结构。实验结果显示,其预测精度与实际结构非常接近。这一成果意味着自然语言处理技术也可应用于生物学研究,但同时也引发了关于其局限性和对现有工具影响的讨论。论文详情见:https://www.nature.com/articles/s41598-024-69021-2
50 8
|
2月前
|
存储 人工智能 开发框架
蚂蚁集团开源项目 DB-GPT 和 VSAG 惊艳亮相,引领 AI 数据革命!
9月5日,在2024 Inclusion·外滩大会“从DATA for AI到AI for DATA”见解论坛上,由蚂蚁集团发起的,旨在提高数据库与大模型应用开发效率的“星辰智能社区”新发布了两个项目:AI原生数据应用开发框架DB-GPT新版本与向量索引库VSAG。
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
算法金 | 秒懂 AI - 深度学习五大模型:RNN、CNN、Transformer、BERT、GPT 简介
**RNN**,1986年提出,用于序列数据,如语言模型和语音识别,但原始模型有梯度消失问题。**LSTM**和**GRU**通过门控解决了此问题。 **CNN**,1989年引入,擅长图像处理,卷积层和池化层提取特征,经典应用包括图像分类和物体检测,如LeNet-5。 **Transformer**,2017年由Google推出,自注意力机制实现并行计算,优化了NLP效率,如机器翻译。 **BERT**,2018年Google的双向预训练模型,通过掩码语言模型改进上下文理解,适用于问答和文本分类。
154 9
|
4月前
|
人工智能 数据挖掘 机器人
同样是人工智能 客户在哪儿AI和GPT等大模型有什么不同
客户在哪儿AI生产的是企业全历史行为数据,同时还针对ToB企业,提供基于企业全历史行为数据的数据分析服务。
|
5月前
|
人工智能 API 流计算
[AI Stability] 开源AI新利器:Stable Diffusion 3 Medium震撼发布!文本到图像再升级!
探索 Stable Diffusion 3 Medium(SD3),Stability AI 的最新开源模型,正在彻底改变文本到图像的生成。了解其功能、许可选项和集成可能性。
[AI Stability] 开源AI新利器:Stable Diffusion 3 Medium震撼发布!文本到图像再升级!
|
4月前
|
机器学习/深度学习 人工智能 视频直播
AI直播手机APP震撼发布!3大场景直播,60秒一键开播!
🎉 青否数字人AI直播APP发布!🚀 在抖音等平台60秒一键开播,简化直播流程。💡 3种AI直播模式,融合6大AIGC技术,助力新手轻松直播带货且避免违规。💪 AI主播、声音克隆,实时话术改写,智能互动与讲品同步,提升转化。📊 实景与视频直播结合,适应多种场景。🌐 独立部署,自定义版权,1年免费升级,专业售后支持。🚀 (直播: zhibo175) #青否数字人 #AI直播
AI直播手机APP震撼发布!3大场景直播,60秒一键开播!