Google AI教你如何啃NLP中的硬骨头:开放域长形式问答系统

本文涉及的产品
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
NLP 自学习平台,3个模型定制额度 1个月
简介: 开放域长格式问答(Open-domain long-on answering (LFQA))是自然语言处理的一项基本挑战。谷歌AI利用最新的稀疏注意力模型和基于检索的模型推出了一个新系统,对于回答长篇问题有着杰出的效果。

微信图片_20220113004536.png  新智元报道  

来源:外媒

编辑:PY

【新智元导读】 开放域长格式问答(Open-domain long-on answering (LFQA))是自然语言处理的一项基本挑战谷歌AI利用最新的稀疏注意力模型和基于检索的模型推出了一个新系统,对于回答长篇问题有着杰出的效果。


开放域长时间回答(LFQA)问题是自然语言处理(NLP)中的一个基本挑战,涉及与给定查询相关的检索文档,并且根据它们生成详细的有大段文字的答案。


微信图片_20220113004539.png


近年来,在虚拟开放域问答系统(QA)方面取得了显著进展。

 

在这种技术中,一个的短语就足以回答一个问题,但是对于长形式的问题回答(LFQA)则表现不理想。

 

LFQA 是一个重要的任务,主要是因为它提供了一个测试生成文本模型的真实性的平台。

 

但是,现有的基准和评估指标并不完全适用于 LFQA 的进展。

 

在最近即将在 NAACL 2021上发表的一篇题为「长形式问答进步中的障碍」的论文中,Google.ai 提出了一个新的开放域长形式问答系统,该系统利用了 NLP 的两个最新进展:

 

一个是最先进的「稀疏注意模型」(sparse attention models),例如RT(Routing Transformer),允许基于注意力的模型扩展到长序列。


另一个是基于检索的模型,例如 REALM,可以方便检索与给定查询相关的维基百科文章。


微信图片_20220113004542.png 


该系统在生成答案之前,将来自多个检索到的维基百科文章中与给定问题相关的信息组合在一起。

 

ELI5是唯一可用于长形式问题回答的大规模公开数据集,该系统在 ELI5上实现了一个新的最先进的状态,。

 

然而,尽管该系统在公共排行榜上名列前茅,研究人员已经发现了一些关于ELI5数据集和相关的评估指标令人担忧的事情。

 

特别是,他们发现很少有证据表明,模型使用的检索条件和琐碎的基线(例如,输入复制)胜过现代系统。研究人员还观察到,数据集中存在明显的训练/验证重叠。


文本生成


NLP 模型的主要组成部分是 Transformer 体系结构。序列中的每一个令牌(token )都会照顾到序列中的每一个其他令牌,从而形成一个可以根据序列长度进行二次伸缩的模型。

 

RT 模型引入了一种动态的、基于内容的机制,降低了 Transformer 模型中注意力的复杂性。

 

NLP 模型的主要组成部分是 Transformer 体系结构。序列中的每一个令牌都会照顾到序列中的每一个其他令牌,从而形成一个可以根据序列长度进行二次伸缩的模型。RT 模型引入了一种动态的、基于内容的机制,降低了 Transformer 模型中注意力的复杂性。

 

RT 工作的关键因素是,每一个能参与到其他每个令牌的令牌通常是多余的,可以通过本地和全局注意力的组合来近似。

 

RT 模型是基于 PG-19数据集的语言建模目标进行预训练的。


微信图片_20220113004544.gif



image.gif


信息检索


研究人员将 RT 模型与来自 REALM 的检索结合起来,证明了 RT 模型的有效性。

 

REALM 模型是一种基于检索的模型,它利用最大限度的内部产品搜索来获取与特定查询或问题相关的维基百科文章。


研究人员通过使用「对比损失」提高了 REALM 检索的质量。

 

评估


该模型通过 ELI5数据集进行了测试,ELI5数据集是 KILT 基准的一部分,也是唯一公开的大规模 LFQA 数据集。接下来,他们对来自 KILT 的 ELI5数据集上的预训练 RT 模型和来自 c-REALM 的检索进行微调。

 

根据已经提交的结果,在 ELI5上的 KILT 排行榜上的长形式的问题回答结果第一位是 RT+c-REALM,得分为2.36。

 

尽管这种模式在排行榜上名列前茅,但仍然存在着一些挑战。


image.png 


研究人员几乎没有观察到任何证据,表明这个模型的下一代是建立在已检索到的文档之上的。

他们还发现 ELI5的培训、验证和测试集有明显的重叠。

 

此外,用于评估文本生成质量的 Rouge-L 度量标准也存在一些问题,因为这些文本生成标准基线微不足道。

 

研究人员希望社区共同努力解决这些问题,以便研究人员能够在这一领域取得有意义的进展。

参考资料:

https://www.marktechpost.com/2021/03/27/google-ai-introduces-a-new-system-for-open-domain-long-form-question-answering-lfqa/

相关文章
|
10天前
|
机器学习/深度学习 自然语言处理 知识图谱
GraphRAG在自然语言处理中的应用:从问答系统到文本生成
【10月更文挑战第28天】作为一名自然语言处理(NLP)和图神经网络(GNN)的研究者,我一直在探索如何将GraphRAG(Graph Retrieval-Augmented Generation)模型应用于各种NLP任务。GraphRAG结合了图检索和序列生成技术,能够有效地处理复杂的语言理解和生成任务。本文将从个人角度出发,探讨GraphRAG在构建问答系统、文本摘要、情感分析和自动文本生成等任务中的具体方法和案例研究。
31 5
|
5月前
|
机器学习/深度学习 人工智能 自然语言处理
探索未来AI技术的前沿——自然语言处理的发展与应用
本文将深入探讨自然语言处理技术在人工智能领域中的重要性和应用前景。通过分析当前自然语言处理技术的发展趋势和实际应用案例,揭示了其在改善用户体验、提升工作效率以及推动产业创新方面的巨大潜力。
|
25天前
|
Web App开发 人工智能 前端开发
Google 浏览器中的 AI 魔法 — window.ai
本文介绍了如何在 Chrome Canary 中启用并使用设备端 AI 功能。通过下载 Chrome Canary 并启用相关 API,你可以在本地运行 AI 模型,无需互联网连接。文章详细讲解了设置步骤、确认 AI 可用性的方法以及如何使用 `window.ai` 进行文本会话。虽然目前的性能和功能还有待提升,但这一技术为未来的前端开发和智能应用提供了无限可能。
51 0
|
2月前
|
人工智能 运维 安全
阿里云飞天企业版“智算升级”,为政企打造AI时代最开放的云
阿里云正式发布飞天智算—飞天企业版V3.18,为政企客户打造AI时代最开放的云。此次升级,飞天企业版将智算能力深度融入云平台,实现“一云多算”,满足政企客户对云平台“云+AI”协同发展需求,为AI技术大规模在政企领域应用做好准备。
116 11
|
1月前
|
人工智能 自然语言处理
【NLP自然语言处理】NLP中的常用预训练AI模型
【NLP自然语言处理】NLP中的常用预训练AI模型
|
3月前
|
机器学习/深度学习 人工智能 运维
2023 Google I/O Connect Shanghai 参会总结:云,AI 与 Web
2023 Google I/O Connect Shanghai 参会总结:云,AI 与 Web
2023 Google I/O Connect Shanghai 参会总结:云,AI 与 Web
|
3月前
|
人工智能 自然语言处理 安全
Google Gemini 1.5 Pro在AI竞赛中遥遥领先,挑战GPT-4o
Google Gemini 1.5 Pro在AI竞赛中遥遥领先,挑战GPT-4o
Google Gemini 1.5 Pro在AI竞赛中遥遥领先,挑战GPT-4o
|
3月前
|
人工智能 JSON 自然语言处理
我的Google Vertex AI实践经验分享
忙碌的开发者分享了使用Google Vertex AI的实践经验。从复杂的初始设置到微调模型时的手动资源分配,作者经历了种种挑战,包括高昂的成本与不足的文档支持。尽管如此,Vertex AI在图像识别和自然语言处理方面展现出强大能力。作者希望反馈能帮助Google改进服务,使之更加用户友好。
76 2
|
4月前
|
人工智能 自然语言处理 算法
开放式API在AI应用开发中的革命性角色
【7月更文第21天】随着人工智能技术的飞速发展,开放式API(Application Programming Interfaces)正逐渐成为连接技术与创新、加速AI应用开发的关键桥梁。这些API允许开发者轻松访问预先训练好的模型和复杂算法,无需从零开始构建基础架构,从而极大地降低了AI应用的开发门槛,促进了技术民主化。本文将探讨开放式API如何在AI领域引发革命性变化,通过实际案例和代码示例展现其强大功能。
108 2