机器人视觉认知能力将取代人类?ModelScope开源mPLUG模型带你一键体验大火的视觉问答能力
ModelScope上开源了达摩院众多业界最强多模态模型,其中就有首超人类的多模态视觉问答模型mPLUG,小编带大家一起体验下多模态预训练模型的能力。
ModelScope模型库体验之中文StructBERT系列预训练语言模型
StructBERT在BERT的基础上提出改进优化,通过在句子级别和词级别引入两个新的目标函数,打乱句子/词的顺序并使模型对其进行还原的方式,能让机器更好地掌握人类语法,加深对自然语言的理解,使得模型学习到更强的语言结构信息。
AI模型教你写出秒抓读者眼球的好标题
广告大师大卫·奥格威曾在《一个广告人的自白》中提到:标题在大部分广告中,都是最重要的元素,能够决定读者会不会看这则广告。一般来说,读标题的人比读内人的人多出4倍。换句话说,你所写标题的价值将是整个广告预算的80%。因此对于一篇文章、新闻来说,标题的好坏决定了点击和流量。本文介绍通过ModelScope的AI模型PALM来完成标题/摘要生成
ModelScope保姆式教程带你玩转语言生成模型
PALM预训练语言生成模型是针对实际场景中常见的文本生成需求所设计的一个模型。模型利用大量无监督数据,通过结合自编码和自回归任务进行预训练,更贴合下游生成任务所同时需要的理解和生成能力。
四大榜单第一名、首个中文预训练表格模型开源,达摩院TableQA技术让表格说话
在过去两年时间里,阿里达摩院对话智能团队(Conversational AI)围绕 TableQA 做了一系列探索,先后在四大国际权威榜单上取得第一名,并且开源了首个中文预训练表格模型。同时,把 TableQA 技术落地为产品,在阿里云智能客服中开始规模化推广,成为具备差异化竞争力的新产品。本文将对达摩院在 TableQA 技术方向的系列探索创新和业务落地做系统的梳理介绍。
如何向大模型注入知识?达摩院通义对话模型SPACE系列探索
如何将人类先验知识低成本融入到预训练模型中一直是个难题。达摩院对话智能团队提出了一种基于半监督预训练的新训练方式,将对话领域的少量有标数据和海量无标数据一起进行预训练,从而把标注数据中蕴含的知识注入到预训练模型中去,打造了SPACE 1/2/3 系列模型,在11个国际公开对话数据集取得SOTA。
如何通过分割模型完成证件照制作
语义分割或者抠图完之后,我们会获取一个带有alpha通道的png图像。可以通过该图像进一步加工,更换前景的背景图片,从而实现证件照制作、换背景、换天等的玩法。本文主要介绍如何对alpha通道进行原图加工,从而实现证件照功能。
用huggingface.transformers.AutoModelForSequenceClassification在文本分类任务上微调预训练模型
本部分以文本分类任务为例,介绍transformers上如何微调预训练模型。
文本摘要(text summarization)任务:研究范式,重要模型,评估指标(持续更新ing...)
本文是作者在学习文本摘要任务的过程中,根据学习资料总结逐步得到并整理为成文的相关内容。相关学习资料(包括论文、博文、视频等)都会以脚注等形式标明。有一些在一篇内会导致篇幅过长的内容会延伸到其他博文中撰写,但会在本文中提供超链接。 本文将主要列举里程碑式的重要文本摘要论文。 注意:除文首的表格外,本文所参考的论文,如本人已撰写对应的学习博文,则不直接引用原论文,而引用我撰写的博文。 本文会长期更新。
【预测模型-DELM分类】基于风驱动算法改进深度学习极限学习机实现数据分类附matlab代码
【预测模型-DELM分类】基于风驱动算法改进深度学习极限学习机实现数据分类附matlab代码
PyTorch学习笔记(五):模型定义、修改、保存
Module 类是 torch.nn 模块里提供的一个模型构造类 (nn.Module),是所有神经⽹网络模块的基类,我们可以继承它来定义我们想要的模型; PyTorch模型定义应包括两个主要部分:各个部分的初始化(_init_);数据流向定义(forward) 基于nn.Module,可以通过Sequential,ModuleList和ModuleDict三种方式定义PyTorch模型。