Jeff Dean等人新作:换个角度审视语言模型,规模不够发现不了

简介: Jeff Dean等人新作:换个角度审视语言模型,规模不够发现不了

这是一篇来自谷歌、斯坦福大学、北卡罗来纳大学教堂山分校以及 DeepMind 四个机构的研究,论文从「涌现(emergence)」的角度介绍大模型,所谓的,即有些现象不存在于较小的模型中但存在于较大的模型中。

近年来,语言模型对自然语言处理 (NLP) 产生了革命性影响。众所周知,扩展语言模型,例如参数等,可以在一系列下游 NLP 任务上带来更好的性能和样本效率。在许多情况下,扩展对性能的影响通常可以通过扩展定律进行预测,一直以来,绝大多数研究者都在研究可预测现象。


相反,包括 Jeff Dean 、 Percy Liang 等在内的 16 位研究者合作的论文《 Emergent Abilities of Large Language Models 》,他们讨论了大模型不可预测现象,并称之为大型语言模型的涌现能力( emergent abilities)。所谓的,即有些现象不存在于较小的模型中但存在于较大的模型中,他们认为模型的这种能力是的。


作为一种想法已经在物理学、生物学和计算机科学等领域讨论了很长时间,本论文从的一般定义开始,该定义改编自 Steinhardt 的研究,并植根于 1972 年诺贝尔奖获得者、物理学家 Philip Anderson 的一篇名为 More Is Different 的文章。


本文探讨了模型规模的,通过训练计算和模型参数来衡量。具体而言,本文将大型语言模型的能力定义为在小规模模型中不存在、但在大规模模型中存在的能力;因此,大型模型不能通过简单地推断小规模模型的性能改进来进行预测。该研究调查了在一系列先前工作中观察到的模型能力,并将它们进行分类:小样本提示和增强提示等设置。


模型的这种能力激发了未来的研究,即为什么会获得这些能力,以及更大的规模是否会获得更多的能力,并强调了这项研究的重要性。



论文地址:https://arxiv.org/pdf/2206.07682.pdf


小样本提示任务


本文首先讨论了提示范式中的能力。例如在 GPT-3 提示中,给出预训练语言模型任务提示,模型无需进一步训练或对参数进行梯度更新即可完成响应。此外,Brown 等人提出了小样本提示,他们将模型上下文(输入)中的一些输入输出示例作为提示(preamble),然后要求模型执行未见过的推理任务。图 1 为一个提示示例。



当模型具有随机性能且具有一定规模时,通过小样本提示就可以执行任务,这时能力就会出现,之后模型性能远远高于随机性能。下图展示了 5 个语言模型系列(LaMDA、GPT-3、Gopher、Chinchilla 以及 PaLM  )的 8 种能力。



BIG-Bench:图 2A-D 描述了来自 BIG-Bench 的四个小样本提示任务,BIG-Bench 是一个由 200 多个语言模型评估基准的套件。图 2A 显示了一个算术基准,它测试了 3 位数字的加减法,以及 2 位数字的乘法。表 1 给出了 BIG-Bench 更多能力。



增强提示策略


目前来看,尽管小样本提示是与大型语言模型交互的最常见方式,但最近的工作已经提出了其他几种提示和微调策略,以进一步增强语言模型的能力。如果一项技术在应用到一个足够大的模型之前没有显示出改进或者是有害的,本文也认为该技术也是一种能力。


多步推理(Multi-step reasoning):对于语言模型和 NLP 模型来说,推理任务,尤其是那些涉及多步推理的任务一直是一个很大的挑战。最近有一种名为思维链(chain-of-thought)提示策略,通过引导语言模型在给出最终答案之前生成一系列中间步骤,从而使它们能够解决这类问题。如图 3A 所示,当扩展到 1023 次训练 FLOP(~ 100B 参数)时,思维链提示只超过了没有中间步骤的标准提示。


指令( Instruction following ):如图 3B 所示,Wei 等人发现,当训练 FLOP 为 7 · 10^21  (8B 参数)或更小时,指令微调(instruction-finetuning)技术会损害模型性能,在将训练 FLOP 扩展到 10^23 (~100B 参数)时才能提高性能。


程序执行( Program execution ):如图 3C 所示,在 8 位加法的域内评估中,使用暂存器仅有助于 ∼9 · 10^19 个训练 FLOP(40M 参数)或更大的模型。图 3D 显示这些模型也可以泛化到域外 9 位加法,它出现在 ∼1.3 · 10^20 个训练 FLOPs(100M 参数)。



本文讨论了语言模型的能力,到目前为止,仅在一定的计算规模上才能观察到有意义的性能。模型的这种能力可以跨越各种语言模型、任务类型和实验场景。这种涌现的存在意味着额外的规模扩展可以进一步扩大语言模型的能力范围。这种能力是最近发现的语言模型扩展的结果,关于它们是如何出现的,以及更多的扩展是否会带来更多的涌现能力,可能是NLP领域未来重要的研究方向。


更多内容,请参考原论文。


相关文章
|
人工智能 算法 开发工具
Mixtral 8X7B MoE模型在阿里云PAI平台的微调部署实践
Mixtral 8x7B 是Mixtral AI最新发布的大语言模型,是当前最为先进的开源大语言模型之一。阿里云人工智能平台PAI,提供了对于 Mixtral 8x7B 模型的全面支持,开发者和企业用户可以基于 PAI-快速开始轻松完成Mixtral 8x7B 模型的微调和部署。
|
存储 算法
数据仓库数据模型之:极限存储--历史拉链表
摘要: 在数据仓库的数据模型设计过程中,经常会遇到文内所提到的这样的需求。而历史拉链表,既能满足对历史数据的需求,又能很大程度的节省存储资源。 在数据仓库的数据模型设计过程中,经常会遇到这样的需求:1. 数据量比较大;2. 表中的部分字段会被update,如用户的地址,产品的描述信息,订单的状态等等;3. 需要查看某一个时间点或者时间段的历史快照信息,比如,查看某一个订单在历史某一个时间点的
5877 0
|
缓存 安全 JavaScript
前端安全:Vue应用中防范XSS和CSRF攻击
【4月更文挑战第23天】本文探讨了在Vue应用中防范XSS和CSRF攻击的重要性。XSS攻击通过注入恶意脚本威胁用户数据,而CSRF则利用用户身份发起非授权请求。防范措施包括:对输入内容转义、使用CSP、选择安全的库;采用Anti-CSRF令牌、同源策略和POST请求对抗CSRF;并实施代码审查、更新依赖及教育团队成员。通过这些实践,可提升Vue应用的安全性,抵御潜在攻击。
1501 0
|
12月前
|
安全 Java 程序员
ArrayList vs Vector:一场线程安全与性能优化的世纪之争!
在 Java 面试中,ArrayList 和 Vector 是高频考点,但很多人容易混淆。本文通过10分钟深入解析它们的区别,帮助你快速掌握性能、线程安全性、扩容机制等核心知识,让你轻松应对面试题目,提升自信!
310 18
|
小程序 JavaScript 前端开发
小程序云开发全套实战教程(最全)
小程序云开发全套实战教程(最全)
396 0
|
JavaScript
vue报错 | Duplicate keys detected: ‘0’. This may cause an update error.
vue报错 | Duplicate keys detected: ‘0’. This may cause an update error.
258 3
|
监控 Linux
在Linux中,如何检查磁盘使用情况和剩余空间?
在Linux中,如何检查磁盘使用情况和剩余空间?
|
前端开发 JavaScript Java
前后端分离|基于Springboot+Vue校园闲置物品交易系统设计与实现
前后端分离|基于Springboot+Vue校园闲置物品交易系统设计与实现
273 0
前后端分离|基于Springboot+Vue校园闲置物品交易系统设计与实现
|
机器学习/深度学习 存储 人工智能
大白话讲清楚:什么是 Langchain 及其核心概念
大白话讲清楚:什么是 Langchain 及其核心概念
|
算法 定位技术 C语言
推箱子游戏(算法设计)
推箱子游戏(算法设计)
376 0