Transformer作者创建,Hinton、李飞飞、Goodfellow等大佬投资,这家新公司要做什么?

简介: 这家公司的早期投资人包括 Geoffrey Hinton、Ian Goodfellow、李飞飞等一众大佬。

今天,Transformer 作者之一 Aidan Gomez 在推特上宣布,他们创办了一家名为 Cohere 的自然语言处理公司,基于自己训练的大型 NLP 模型为外界提供 API 服务。

微信图片_20211205105811.jpg


那么这家公司是做什么的?为什么今天如此受关注呢?

该公司在主页上写道:

语言对于人类来说至关重要,但计算机在解析语法、语义和语境方面存在困难,这一障碍限制了我们与技术沟通的能力。因此,Cohere 的使命就是构建一种能够理解世界的机器,并让所有人安全地使用它们。


微信图片_20211205105813.jpg


Aidan Gomez 表示,为了达成这一使命,他们训练了一个数十亿(未来可能数千亿)参数的语言模型。利用该模型的 API,我们可以完成文本补全、从文本中提取有语义意义的向量、测量段落语义相似性等任务。用户只需要在自己的系统中载入三行代码就可以调用该模型的能力。

微信图片_20211205105815.jpg

微信图片_20211205105829.jpg


Aidan Gomez 表示,他们将分阶段开放 API,目前官网已经开始接受内测申请。


微信图片_20211205105818.jpg


官网地址:https://cohere.ai/

比公司业务更令人瞩目的是投资阵容。据报道,这家公司的早期投资者包括图灵奖得主 Geoffrey Hinton、GAN 之父 Ian Goodfellow、Uber 首席科学家 Raquel Urtasun、英伟达多伦多研究实验室主任 Sanja Fidler 以及斯坦福大学教授李飞飞等。

团队的创始成员也都是预训练模型领域的资深研究者。其中,联合创始人共有三位。

Aidan Gomez 本科就读于多伦多大学,是牛津大学 Yarin Gal 和 Yee Whye Teh 的博士生。他曾在谷歌大脑团队的 Geoffrey Hinton 和Łukasz Kaiser 组内工作。

他是《Attention is all you need》论文作者之一:

微信图片_20211205105823.jpg

此前,Aidan Gomez 曾领导过一个叫做 FOR.ai 的研究团队,主要成员多来自 Google Brain、牛津大学等,其中也包括 Cohere 的另一位联合创始人 Ivan Zhang。

微信图片_20211205105835.jpg

Cohere 团队成员。

Ivan Zhang 本科同样就读于华盛顿大学,不同的是,他选择了辍学并进入生物技术公司 Ranomics 工作。


另一位联合创始人 Nick Frosst 是 Geoffrey Hinton 在多伦多谷歌大脑实验室的第一位员工,他在那里度过了三年的机器学习研究生涯,主要研究兴趣为胶囊网络、对抗样本和可解释性。本科阶段,他就读于华盛顿大学,完成了计算机科学和认知科学的相关课程。学术领域之外,他也是一支独立摇滚乐队 Good Kid 的成员。

其余二十位 Cohere 创始员工分别负责机器学习、ML Ops、产品等工作。正如官网所表示的那样:「我们有的来自全球顶尖的实验室和高校,但有的辍学了,或者根本没有上过学。」

Aidan Gomez 表示,目前他们还在招人。

GPT-3 等模型的问世让人们看到了大规模预训练模型的潜力,也在国内外掀起了一场创业热潮。前段时间,循环智能与华为联合开发的「盘古 」模型问世,将中文预训练模型的参数量提升到了千亿级别。

「超大规模预训练模型的出现,很可能改变信息产业格局。继基于数据的互联网时代、基于算力的云计算时代之后,接下来可能将进入基于模型的 AI 时代。」清华大学计算机科学与技术系教授唐杰在前段时间接受机器之心采访时曾表示。

循环智能联合创始人杨植麟也同意这一观点。他在采访中提到,这些大模型将来可能开启一种新的商业模式。在这种模式中,开发者可以基于通用 API,结合业务场景,灵活高效地定制行业应用,解锁更多此前想象不到的场景。

在不久的将来,我们也许就能看到大模型为人工智能带来的新的惊喜。


参考链接:https://www.reddit.com/r/MachineLearning/comments/n4s6aq/n_transformer_and_capsule_coinventors_launch_new/

相关文章
|
6月前
|
机器学习/深度学习 人工智能 算法
【AAAI 2024】再创佳绩!阿里云人工智能平台PAI多篇论文入选
阿里云人工智能平台PAI发表的多篇论文在AAAI-2024上正式亮相发表。AAAI是由国际人工智能促进协会主办的年会,是人工智能领域中历史最悠久、涵盖内容最广泛的国际顶级学术会议之一,也是中国计算机学会(CCF)推荐的A类国际学术会议。论文成果是阿里云与浙江大学、华南理工大学联合培养项目等共同研发,深耕以通用人工智能(AGI)为目标的一系列基础科学与工程问题,包括多模态理解模型、小样本类增量学习、深度表格学习和文档版面此次入选意味着阿里云人工智能平台PAI自研的深度学习算法达到了全球业界先进水平,获得了国际学者的认可,展现了阿里云人工智能技术创新在国际上的竞争力。
|
机器学习/深度学习 人工智能 并行计算
谷歌下一代AI架构、Jeff Dean宣传大半年的Pathways终于有论文了
谷歌下一代AI架构、Jeff Dean宣传大半年的Pathways终于有论文了
430 0
|
机器学习/深度学习 人工智能 自然语言处理
Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽
Transformer六周年:当年连NeurIPS Oral都没拿到,8位作者已创办数家AI独角兽
268 0
|
机器学习/深度学习 人工智能 算法
谷歌大牛Jeff Dean单一作者撰文:深度学习研究的黄金十年
谷歌大牛Jeff Dean单一作者撰文:深度学习研究的黄金十年
140 0
|
机器学习/深度学习 人工智能 算法
Jeff Dean发文回顾:深度学习黄金十年
Jeff Dean发文回顾:深度学习黄金十年
148 0
|
机器学习/深度学习 人工智能 自然语言处理
CVPR 2021大奖公布!何恺明获最佳论文提名,代码已开源!
深度生成模型可以在高分辨率下进行逼真的图像合成。但对于许多应用来说,这还不够:内容创作还需要可控。虽然最近有几项工作研究了如何分解数据中的潜在变化因素,但它们大多在二维中操作,忽略了我们的世界是三维的。
CVPR 2021大奖公布!何恺明获最佳论文提名,代码已开源!
|
机器学习/深度学习 人工智能 自然语言处理
华人博士一作:自动生成摘要超越BERT!帝国理工&谷歌提出新模型Pegasus
谷歌大脑和伦敦帝国理工学院的研究团队在自动生成文本摘要方面获得新的突破,他们构建了一个名为PEGASUS的系统,利用谷歌的Transformer架构,并结合了针对文本摘要生成定制的预训练目标,在12个摘要任务中均取得了最先进的结果。
626 0
华人博士一作:自动生成摘要超越BERT!帝国理工&谷歌提出新模型Pegasus
|
机器学习/深度学习 人工智能 算法
AI应该用来解决大问题,Jeff Dean:谷歌绝不使用AI算法专利牟利
「我们希望让人工智能技术为所有人造福,」Jeff Dean 说道。「谷歌认为,AI 应该对社会有益,并避免创造或加剧所有不公平现象。」
180 0
AI应该用来解决大问题,Jeff Dean:谷歌绝不使用AI算法专利牟利
|
机器学习/深度学习 Web App开发 人工智能
NeurIPS 2018 AutoML挑战赛落幕:印度团队第一,清华第二
当地时间 12 月 3 日,AI 顶级会议 NeurIPS 2018 在加拿大蒙特利尔拉开帷幕,除了精彩的 Tutorial、Invited Talk、论文展示之外,NeurIPS 期间的竞赛同样吸引来自学术界、产业界的关注。
276 0
NeurIPS 2018 AutoML挑战赛落幕:印度团队第一,清华第二
|
机器学习/深度学习 人工智能 自然语言处理
明年AI学术会议投稿规模炸裂!注意ICML 2019的这些变化
今日,ICML 2019 程序主席之一 Ruslan Salakhutdinov 教授在 Twitter 上表示为了鼓励可复现性和高质量的论文提交,今年 ICML 的程序委员会在论文提交上作出了三项改变。希望机器之心计划提交 ICML 2019 论文的读者们注意。
260 0
明年AI学术会议投稿规模炸裂!注意ICML 2019的这些变化
下一篇
无影云桌面