摩尔定律搅局者:这家公司用光训练 AI,而不是GPU

简介: 初创公司Fathom Computing从2014年开始尝试用光子来处理数据,他们发现光子比电子更适合AI任务的计算,性能得到显著提升。在识别手写数字的任务上,光学计算机达到90%的准确率,这是极大的进步。未来光学计算机对大型AI任务来说有着无与伦比的吸引力。

Willam Andregg带我走进他的创业公司 Fathom Computing杂乱的工作室,轻轻抬起一个笨重黑匣子的盖子。匣子里,绿光从一组像是望远镜的镜头、支架和电缆中微微发出。这是一台使用光(而不是电)来处理数据的原型计算机,它正在学习识别手写数字。在其他实验中,这台计算机学会了用文本生成句子。

现在,这台原型光学计算机(optical computer)表现很好,但还达不到绝佳状态:在最佳运行条件下,它正确读出了 90%的潦草手写数字。但 Andregg 认为这是一个突破。 “2014 年我们开香槟庆祝公司成立时,正确率只有 30%左右,” 他笑着说。

Andregg 称这是机器学习软件首次使用激光脉冲电路而非电力进行训练。Fathom 公司正在努力缩小这台占地几平方英尺计算机的尺寸,以适应标准的云服务器。Fathom 希望这项技术将成为人工智能淘金热的一个利器。

科技公司,特别是像亚马逊和微软这样的大型云服务提供商,在计算机芯片上花费巨资为机器学习算法提供算力。研究人员发现专为图形设计的芯片非常适合于为识别语音或图像等任务驱动所谓的人工神经网络,这开启了人工智能的狂热。在过去的三年中,领先的图形芯片供应商Nvidia的股价已经增长了10倍以上,谷歌和其他许多公司也正在制造或研发自己的机器学习专门芯片。

766d0d9329a9167140540eef0ac40ca1e0cdec9f

Fathom的原型光学计算机乘法矩阵的可视化——这是对人工神经网络来说非常重要的操作。

Fathom的创始人们押注于这项新技术,认为它将超越纯电子计算机的能力。 William Andregg说:“光学技术与电子学相比具有根本上的优势,没有任何电子学的设计能够超越它。”他和兄弟一起创业,公司有11人,由Andy Rubin领导的风险投资公司Playground Global支持,后者共同开发了目前由谷歌拥有的Android操作系统。Fathom在加州帕洛阿尔托Playground的工作室运作。Playground曾是Nervana公司的主要投资方,该公司在2016年被Intel收购,成为该芯片巨头AI硬件战略的核心。

利用光而不是电来处理数据的好处

电信公司通过光信号来远距离传播数据,因为与金属电缆中的电脉冲相比,使用同样的能量,光信号传播得更远。一根电缆可以同时容纳许多并行数据流,由不同颜色的光线进行传输。

利用光来处理数据,以及传输数据,也能够带来显着的性能提升。因为光导线路内的光线或多或少是自由传播的。相反,电信号必须相阻抗,产生废热。容量增加和节能减排,两者加在一起对那些运行大型机器学习项目的公司是很大的吸引。

光处理器不是一个新概念。在20世纪60年代就提出来了,用于军用雷达系统。但是随着半导体产业大步前进,数十年来芯片密度都实现了摩尔定律的提升。Fathom是新的光学计算复兴的一部分,这一复兴是由于人们认识到摩尔定律似乎正在失效。加州大学伯克利分校的14名研究人员在最近的一份报告中提到了摩尔定律的消亡,他们提出使AI系统变得更加智能的技术上的挑战。报告写道:“硬件技术迅速提升的历史正在陷入停滞。”

光学计算机不太可能在短时间内为你的笔记本或智能手机供能。首先,Fathom的原型机仍然太笨重了。但亚利桑那大学的教授Pierre-Alexandre Blanche说,这项技术看起来与芯片在基于人工神经网络的AI项目中的主要工作相当匹配。Siri的语音识别、在围棋上赢过人类的AlphaGo,都是建立在大量特定的数学运算的基础上的,即矩阵的乘法运算。

Fathom的原型机是通过将数字编码成光束来执行这些操作。光束通过一系列透镜和其他光学元件。 阅读这些光束如何在这个过程中发生改变,可以揭示计算的结果。像这样的光电路可以有效地执行传统计算机中存储器和处理器的工作。在这些组件之间移动数据的时间成本和能源成本是当前使用的系统性能的瓶颈。

Fathom并不孤单,认为AI系统需要光线的公司不止它一家。总部位于巴黎的创业公司LightOn近日宣布,它已经开始在数据中心测试自己的光学处理器技术。初创公司Lightmatter和Lightelligence去年从MIT脱离,筹集了总计2100万美元的资金,包括来自中国搜索巨头百度的资金。这两家初创公司诞生于MIT的一个项目,该项目在光学计算机上运行神经网络进行语音识别。但与Fathom的设备不同,该系统并未负责软件的训练。“我们在网上发布关于该项目的研究报告之后,很快收到了来自投资者的多次电话,”Lightelligence首席执行官兼创始人Yichen Shen说,“这是一个巨大的机遇。”

Andregg兄弟的前一家创业公司Halcyon Molecular偶然发现了另一个大好机遇。这家基因测序公司得到了特斯拉CEO Elon Musk和Facebook投资人 Peter Thiel的支持,但在2012年倒闭了,创始人说,这是因为竞争对手领先太多。

Andregg认为他的团队更适合在光学计算竞赛中。尽管如此,Fathom的原型机还是很长一段路要走。除了机器太大之外,在变冷时,当前的版本容易出错。他们的目标是将系统安装到一块电路板上,这样它就可以滑进服务器。从外面看到的庞大系统的某些部分应该相对容易缩小;机器是用相对低成本的部件组装起来的,以便进行修补。他们还必须设计一个新的芯片来检测和操作激光束。但是设计任何类型的芯片对于初创公司来说都是一个复杂的任务。

Andregg认为两年内还无法准备好最终的产品,但是他兄弟俩已经开始担心人们将怎么利用这个产品 Fathom成立时是一家公益企业,其使命是“为人工智能制造更好的硬件,改善所有人的生活”。这是为了让Fathom有权拒绝他们认为可能导致AI恶意使用的销售。“我们不想见到一个负面的奇点,”Andregg说,“如果军方想要购买我们的系统,我们就会拒绝。”


原文发布时间为:2018-02-27

本文作者:Tom Simonite

本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”微信公众号

原文链接:摩尔定律搅局者:这家公司用光训练 AI,而不是GPU

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
2月前
|
人工智能 中间件 数据库
沐曦 GPU 融入龙蜥,共筑开源 AI 基础设施新底座
沐曦自加入社区以来,一直与龙蜥社区在推动 AIDC OS 的开源社区建设等方面保持合作。
|
4月前
|
存储 机器学习/深度学习 人工智能
GPU云存储性能:加速AI与高性能计算的关键
在人工智能(AI)、机器学习(ML)和高性能计算(HPC)飞速发展的今天,数据存储和处理的效率已成为决定项目成败的关键因素。传统的云存储方案往往无法满足GPU密集型工作负载的需求,而GPU云存储性能的优化正成为企业提升计算效率、降低延迟的核心突破口。本文将深入探讨GPU云存储性能的重要性、关键技术及优化策略,助您在数据驱动的竞争中占据先机。
|
2月前
|
人工智能 并行计算 PyTorch
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
以Lama Cleaner的AI去水印工具理解人工智能中经常会用到GPU来计算的CUDA是什么? 优雅草-卓伊凡
276 4
|
4月前
|
存储 人工智能 编解码
阿里云GPU云服务器深度评测:算力怪兽如何重塑AI与图形处理的未来?
在AI与高性能计算需求激增的今天,传统CPU已难满足“暴力计算”需求。阿里云GPU云服务器依托NVIDIA顶级显卡算力,结合专为GPU优化的神行工具包(DeepGPU),为深度学习、科学计算、图形渲染等领域提供高效、弹性的算力支持。本文全面解析其产品优势、工具链及六大真实应用场景,助你掌握AI时代的算力利器。
阿里云GPU云服务器深度评测:算力怪兽如何重塑AI与图形处理的未来?
|
3月前
|
机器学习/深度学习 人工智能 容灾
硅谷GPU云托管:驱动AI革命的下一代计算基石
在人工智能与高性能计算席卷全球的今天,硅谷作为科技创新的心脏,正通过GPU云托管服务重新定义计算能力的边界。无论您是初创公司的机器学习工程师,还是跨国企业的研究团队,硅谷GPU云托管已成为实现突破性创新的关键基础设施。
|
5月前
|
人工智能 运维 Serverless
GPU 降成本免运维,睿观 AI 助手选择函数计算
从跨境电商 ERP 到“睿观 AI 助手”,阿里云函数计算的支持下,深圳三态股份利用 AI 技术快速完成专利、商标、版权等多维度的侵权风险全面扫描。结合函数计算实现弹性算力支持,降低成本并提升效率,实现业务的快速发展。
|
存储 人工智能 Kubernetes
GPU AI 模型训练
适用于 AI 图片训练场景,使用 CPFS/NAS 作为共享存储,利用容器服务 Kubernetes 版管理 GPU 云服务器集群进行图片 AI 训练。
1311 0
GPU AI 模型训练
|
存储 人工智能 Kubernetes
GPU AI 模型训练
适用于 AI 图片训练场景,使用 CPFS/NAS 作为共享存储,利用容器服务 Kubernetes 版管 理 GPU 云服务器集群进行图片 AI 训练。
19796 0
GPU AI 模型训练
|
2月前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
583 41