谷歌发布 AI 语言模型 ELECTRA,将作为 TensorFlow 上的开源模型

简介: 谷歌发布 AI 语言模型 ELECTRA,将作为 TensorFlow 上的开源模型

在最近的一项研究中,Google 的研究人员提出了“有效学习一种对令牌替换进行准确分类的编码器”(ELECTRA),这是一种 AI 语言训练技术,在具有相同数量的计算资源的情况下,其性能优于现有方法。在发布数月后的这一周,合著者发布了 TensorFlow 的代码库(和预训练的模型),为强大的模型奠定了基础,这些模型能够以最新的准确性执行语言任务。这些模型可能有一天会进入客户服务聊天机器人,或者可能被合并到为执行团队总结报告的工具中。

预训练方法通常分为两类:语言模型(例如OpenAI的GPT),该模型从左到右处理输入文本并根据给定的上下文预测下一个单词;以及屏蔽语言模型(例如Google的BERT和ALBERT以及Facebook的语言模型)RoBERTa),它可以预测输入中被掩盖的少量单词的身份。屏蔽语言模型的优势在于,它们可以“看到”要预测的令牌(即单词)左右两侧的文本,但是它们的预测仅限于输入令牌的一小部分,从而减少了学习量从每个句子。

ELECTRA的秘密秘诀是一项称为替换令牌检测的预训练任务,它可以在从所有输入位置学习的同时训练双向模型(就像被屏蔽的语言模型一样),就像语言模型一样。该区分模型的任务是区分“真实”和“伪造”输入数据。ELECTRA通过用不正确的伪造品(但有些合理的伪造品)替换某些令牌来“破坏”输入,然后,它要求模型确定哪些令牌已被替换或保持不变。lkjjli.gif

替换令牌来自另一个称为生成器的AI模型。生成器可以是在令牌上产生输出分布的任何模型,但是Google研究人员使用了与鉴别器一起训练的小型屏蔽语言模型。生成器和鉴别器共享相同的输入词嵌入。在预训练阶段之后,将生成器放下,并在各种下游任务上微调鉴别器(ELECTRA模型)。

该团队报告说,在实验中,ELECTRA比以前的方法“有了实质性的改进”,使用不到25%的计算量,其性能与RoBERTa和XLNet相当。在4天的时间里,在单个图形卡(计算的1/30)上训练了一个小的ELECTRA模型之后,研究人员设法超越了GPT。借助使用大量计算进行训练的大型ELECTRA模型,他们在SQuAD 2.0问答数据集和GLUE语言理解任务排行榜上获得了最先进的性能。(ELECTRA在GLUE上没有击败Google自己的T5-11b,但研究表明它的大小是其的1/30,并使用10%的计算进行训练。)

lkjjli.gif

当使用少于1/4的计算量时,ELECTRA可以在GLUE自然语言理解基准上与RoBERTa和XLNet的性能相匹配,并在SQuAD问答基准上达到最新的结果。ELECTRA的出色效率意味着即使在小规模的情况下也能很好地运行-可以在几天内在单个GPU上进行训练,其准确性要高于GPT(该模型使用30倍以上的计算能力)。ELECTRA已在TensorFlow之上作为开源模型发布,其中包括许多现成的预训练语言表示模型。

学生研究员Kevin Clark和Google Brain高级研究科学家Thang Luong在博客中写道:“ ELECTRA只需很少的示例就可以达到相同的性能,因为它每个示例都收到模式训练信号。” “与此同时,RTD带来了功能强大的表示学习,因为模型必须学习数据分布的准确表示才能解决任务。”

相关文章
|
2天前
|
人工智能 NoSQL Redis
Collaborative Gym:斯坦福人机协作框架开源!异步交互+三方感知,让你的AI学会主动补位
介绍Collaborative Gym,一个专注于人机协作的框架,支持异步交互和多种任务环境。
45 14
Collaborative Gym:斯坦福人机协作框架开源!异步交互+三方感知,让你的AI学会主动补位
|
2天前
|
人工智能 自然语言处理 数据可视化
YAYI-Ultra:中国企业终于等来『全能大脑』!开源企业级AI『混合专家』横扫金融舆情中医领域,最长生成20万字报告
YAYI-Ultra 是由中科闻歌研发的企业级大语言模型,具备强大的多领域专业能力和多模态内容生成能力,支持数学、代码、金融等多个领域的专家组合,缓解垂直领域迁移中的“跷跷板”现象。
46 10
YAYI-Ultra:中国企业终于等来『全能大脑』!开源企业级AI『混合专家』横扫金融舆情中医领域,最长生成20万字报告
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
通古大模型:古籍研究者狂喜!华南理工开源文言文GPT:AI自动断句+写诗翻译,24亿语料喂出来的学术神器
通古大模型由华南理工大学开发,专注于古籍文言文处理,具备强大的古文句读、文白翻译和诗词创作功能。
48 11
通古大模型:古籍研究者狂喜!华南理工开源文言文GPT:AI自动断句+写诗翻译,24亿语料喂出来的学术神器
|
2天前
|
人工智能 数据可视化 UED
DragAnything:视频PS来了!开源AI控制器让视频「指哪动哪」:拖拽任意物体轨迹,多对象独立运动一键生成
DragAnything 是快手联合浙江大学和新加坡国立大学推出的基于实体表示的可控视频生成方法,支持多实体独立运动控制、高质量视频生成,并在 FID、FVD 和用户研究等评估指标上达到最佳性能。
43 10
DragAnything:视频PS来了!开源AI控制器让视频「指哪动哪」:拖拽任意物体轨迹,多对象独立运动一键生成
|
2天前
|
存储 人工智能 自然语言处理
FoloUp:比HR更懂岗位需求!开源语音面试平台爆火:1份岗位需求生成100问,语音AI追问逻辑漏洞
FoloUp 是一个开源的 AI 语音面试平台,能够根据职位描述自动生成定制化的面试问题,并与候选人进行自然对话式的语音面试,帮助企业高效招聘。
30 9
FoloUp:比HR更懂岗位需求!开源语音面试平台爆火:1份岗位需求生成100问,语音AI追问逻辑漏洞
|
2天前
|
人工智能 编解码 算法
ENEL:3D建模革命!上海AI Lab黑科技砍掉编码器,7B模型性能吊打13B巨头
ENEL是由上海AI Lab推出的无编码器3D大型多模态模型,能够在多个3D任务中实现高效语义编码和几何结构理解,如3D对象分类、字幕生成和视觉问答。
36 9
ENEL:3D建模革命!上海AI Lab黑科技砍掉编码器,7B模型性能吊打13B巨头
|
2天前
|
机器学习/深度学习 人工智能 机器人
TIGER:清华突破性模型让AI「听觉」进化:参数量暴降94%,菜市场都能分离清晰人声
TIGER 是清华大学推出的轻量级语音分离模型,通过时频交叉建模和多尺度注意力机制,显著提升语音分离效果,同时降低参数量和计算量。
55 6
TIGER:清华突破性模型让AI「听觉」进化:参数量暴降94%,菜市场都能分离清晰人声
|
4天前
|
人工智能 自然语言处理 数据可视化
Data Formulator:微软开源的数据可视化 AI 工具,通过自然语言交互快速创建复杂的数据图表
Data Formulator 是微软研究院推出的开源 AI 数据可视化工具,结合图形化界面和自然语言输入,帮助用户快速创建复杂的可视化图表。
162 9
Data Formulator:微软开源的数据可视化 AI 工具,通过自然语言交互快速创建复杂的数据图表
|
6天前
|
人工智能 Linux 开发工具
Kiln AI:零代码实现微调模型!自动生成合成数据与微调模型的开源平台
Kiln AI 是一款开源的 AI 开发工具,支持零代码微调多种语言模型,生成合成数据,团队协作开发,自动部署。帮助用户快速构建高质量的 AI 模型。
396 7
Kiln AI:零代码实现微调模型!自动生成合成数据与微调模型的开源平台
|
6天前
|
存储 人工智能 NoSQL
Airweave:快速集成应用数据打造AI知识库的开源平台,支持多源整合和自动同步数据
Airweave 是一个开源工具,能够将应用程序的数据同步到图数据库和向量数据库中,实现智能代理检索。它支持无代码集成、多租户支持和自动同步等功能。
66 14

热门文章

最新文章