1.75 万亿参数,智源重磅发布全球最大预训练模型「悟道 2.0」

简介: 1.75 万亿参数,智源重磅发布全球最大预训练模型「悟道 2.0」

6 月 1 日,第三届北京智源大会正式开幕。在大会开幕式上,智源研究院重磅发布了全球最大的超大规模智能模型「悟道 2.0」。

「悟道 2.0」模型的参数规模达到 1.75 万亿,是 GPT-3 的 10 倍,打破了之前由谷歌 Switch Transformer 预训练模型创造的 1.6 万亿参数记录,是目前中国首个、全球最大的万亿级模型。


从 1.0 到 2.0,「悟道」探索通用人工智能

今年 3 月 20 日,智源研究院发布了超大规模智能模型「悟道 1.0」,训练出中文、多模态、认知、蛋白质预测等系列模型。智源研究院院长黄铁军教授在介绍「悟道」模型研发初衷时表示,近年来人工智能的发展已经从「大炼模型」逐步迈向了「炼大模型」的阶段,通过设计先进的算法,整合尽可能多的数据,汇聚大量算力,集约化地训练大模型,供大量企业使用,这是必然趋势。

而昨日发布的「悟道 2.0」正是对「炼大模型」的又一次成功探索。

从 15 亿参数的 GPT-2、1750 亿参数的 GPT-3,到 1.6 万亿参数的 Switch Transformer,深度学习模型积极拥抱暴力美学,然而这些模型并非以中文为核心。拥有 1.75 万亿参数的悟道 2.0,做到的不只是参数量的突破,它也是首个万亿级中文预训练模型。智源研究院理事长张宏江认为,目前「大模型 + 大算力」是迈向通用人工智能的一条可行路径。

智源研究院学术副院长唐杰教授表示,「悟道」旨在打造数据和知识双轮驱动的认知智能,让机器能够像人一样思考,实现超越图灵测试的机器认知能力。「悟道」团队在大规模预训练模型研发上做了很多基础性工作,形成了自主的超大规模智能模型技术创新体系,拥有从预训练理论技术到预训练工具,再到预训练模型构建和最终模型测评的完整链条,从技术上是完整成熟的。通过一系列原始创新和技术突破,本次发布的「悟道 2.0」实现了「大而聪明」,具备大规模、高精度、高效率的特点。


悟道 2.0:「大而聪明」

悟道 2.0 的参数规模达到破记录的 1.75 万亿。据介绍,新一代 FastMoE 技术是悟道 2.0 实现「万亿模型」基石的关键。

以往,由于 Google 万亿模型的核⼼技术 MoE(Mixture of Experts)与其分布式训练框架和其定制硬件强绑定,绝大多数人无法得到使用与研究的机会。「悟道」团队研究并开源的 FastMoE 技术是首个支持 PyTorch 框架的 MoE 系统,具有简单易用、灵活、高性能等特点,并且支持大规模并行训练。新一代 FastMoE 支持 Switch、GShard 等复杂均衡策略,支持不同专家不同模型,为万亿模型实现方案补上了最后⼀块短板。

yy.png

FastMoE 数据并行模式,每个 worker 放置多个 experts,worker 之间数据并行。top-2 gate 指的是门网络会选择激活分数最高的 2 个专家网络。(https://hub.baai.ac.cn/view/6...

唐杰表示:「除了参数规模之外,悟道 2.0 还可以同时支撑更多的应用,实现更加通用的智能。另外,我们首次在 100% 的国产超算平台上训练了万亿模型。」悟道 2.0 模型一统文本与视觉两大阵地,支撑更多任务,更加通用化。

在数据方面,「悟道 2.0」模型基于中英双语共 4.9T 的高质量大规模清洗数据进行训练。训练数据包含 WuDaoCorpora 的 1.2TB 中文文本数据、2.5TB 中文图文数据,以及 Pile 数据集的 1.2TB 英文文本数据。

那么,「悟道 2.0」模型究竟能力如何呢?智源研究院公布了其在世界公认的 9 项 Benchmark 基准测试任务上的成绩。

  1. ImageNet zero-shot SOTA 超过 OpenAI CLIP;
  2. LAMA 知识探测:超过 AutoPrompt;
  3. LAMABADA 完形填空:能力超过微软 Turing NLG;
  4. SuperGLUE few-shot FewGLUE:超越 GPT-3,取得当前最佳少样本学习结果;
  5. UC Merced Land-Use zero-shot SOTA,超过 OpenAI CLIP;
  6. MS COCO 文生成图:超越 OpenAI 的 DALL·E;
  7. MS COCO 英文图文检索:超过 OpenAI CLIP 和 Google ALIGN;
  8. MS COCO 多语言图文检索:超过目前最好的多语言多模态预训练模型 UC2,M3P;
  9. Multi 30K 多语言图文检索:超过目前最好的多语言多模态预训练模型 UC2,M3P。yy.png

「悟道 2.0」的高精度来自于一系列核心技术创新。例如:

  • GLM2.0:模型架构创新的典范,更通用的预训练模型。此前,它首次打破 BERT 和 GPT 壁垒,开创性地以单一模型兼容所有主流架构,新一代版本更是以少胜多的高性能人工智能典范,以 100 亿参数量,足以匹敌微软 170 亿参数的 Turing-NLG 模型,取得多项任务的更优成绩。
  • P-tuning2.0 算法:极大地拉近少样本学习和全监督学习的差距,少样本学习能力遥遥领先。
  • CogView:文本生成图像的新框架,克服「上下溢收敛」文图模型关键难题,将 VQ-VAE 和 Transformer 进行结合,表现 SOTA(当前算法性能最优的模型)!在 MS COCO FID 指标上性能优于 DALL·E 等模型。模型可直接实现类似 OpenAI CLIP 模型的自评分功能,生成国画、油画、卡通画、轮廓画等多元画风。

此外,在「悟道」模型研发过程中,智源研究院建设了全球最大的语料数据库 WuDaoCorpora2.0,包含全球最大的中文文本数据集 (3TB)、全球最大的多模态数据集 (90TB)、全球最大的对话数据集 (181G),为行业内大规模智能模型的研发提供了丰富的数据支撑。 yy.png

除了悟道 2.0 模型的发布,这场 AI 盛会邀请到 200 余位国内外人工智能领域的顶尖专家,围绕人工智能领域的前沿研究进展及趋势开展深入研讨。大会围绕国际人工智能学术前沿和产业热点设置了「预训练模型」「机器学习」「群体智能」「人工智能的数理基础」「智能体系架构与芯片」「精准智能」「智能信息检索与挖掘」「青源学术年会」「AI创业」「AI制药」「AI系统」「AI开放与共享」「AI科技女性」等29个专题论坛。

在 6 月 1 日的开幕式上,图灵奖得主 Yoshua Bengio、清华大学国家金融研究院院长朱民博士,北京大学鄂维南院士分别围绕逻辑分析系统 System2、数据资产、科学与智能做了精彩的主旨报告。

相关文章
|
8月前
|
机器学习/深度学习 人工智能 搜索推荐
思维树提示技术:让AI像人类一样思考的魔法
想象一下,如果AI能像你思考问题一样有条理,从一个想法延伸到多个分支,会发生什么?思维树提示技术就是这样一种让AI更聪明的方法,通过结构化思维引导,让AI等大模型给出更深入、更全面的回答。本文将用最轻松的方式,带你掌握这个让AI智商飞升的秘技。
797 1
|
11月前
|
监控 Linux 应用服务中间件
Linux多节点多硬盘部署MinIO:分布式MinIO集群部署指南搭建高可用架构实践
通过以上步骤,已成功基于已有的 MinIO 服务,扩展为一个 MinIO 集群。该集群具有高可用性和容错性,适合生产环境使用。如果有任何问题,请检查日志或参考MinIO 官方文档。作者联系方式vx:2743642415。
3530 57
|
机器学习/深度学习 人工智能 算法
【AI 场景】在自主武器中使用人工智能的伦理影响
【5月更文挑战第4天】【AI 场景】在自主武器中使用人工智能的伦理影响
【AI 场景】在自主武器中使用人工智能的伦理影响
|
机器学习/深度学习 存储 自然语言处理
方案测评|巧用文档智能和RAG构建大语言模型知识库
本文介绍了一款基于文档智能和大语言模型(LLM)的文档解析及问答应用,旨在提升企业文档管理和信息检索效率。系统通过文档解析、知识库构建和问答服务三大模块,实现了从文档上传到智能问答的全流程自动化。
用二维码收集信息时,在后台可以查看、统计哪些数据?
如果是用草料二维码平台搭建的二维码,前往后台,在表单列表中找到对应的表单,就能查看数据了,包括通过该表单收集到的所有明细数据、基于关联二维码的统计数据、填写该表单的填表人统计数据、基于表单组件的字段统计数据。
395 0
用二维码收集信息时,在后台可以查看、统计哪些数据?
|
负载均衡 算法 网络协议
SLB基本概念
SLB基本概念
1111 3
|
前端开发 应用服务中间件 PHP
解决php因为输出内容太短无法流式(Stream)输出问题
本文探讨了PHP流式输出的问题,指出当每次`echo`的内容过短时,前端可能无法实时接收。通过测试发现,需达到一定长度(如1024字节)时流式输出才会生效。为解决此问题,建议在PHP代码中检查输出内容长度,不足时拼接特殊标记,前端接收到后通过正则表达式移除。示例代码提供了解决方案,文章鼓励读者留言讨论和点赞分享。关注作者微信公众号【xdub】获取更多相关内容。
311 2
|
机器学习/深度学习 数据采集 算法
机器学习实战第1天:鸢尾花分类任务
机器学习实战第1天:鸢尾花分类任务
|
机器学习/深度学习 SQL 人工智能
关于多智能体应用,这届年轻人这么做
关于多智能体应用,这届年轻人这么做
591 0
Spark 通用的性能配置方法:内存和CPU的配置
前言 本文主要介绍关于通过配置Spark任务运行时的内存和CPU(Vcore)来提升Spark性能的方法。通过配置内存和CPU(Vcore)是比较基础、通用的方法。本文出现的Demo以X-Pack Spark数据工作台为背景介绍,数据工作台的详细介绍请参考:数据工作台。
6556 0

热门文章

最新文章