重大突破!斯坦福证明神经网络能直接在光学芯片上训练

简介: 美国斯坦福大学的研究人员已经证明,可以直接在光学芯片上训练人工神经网络。这一重大突破表明,光学电路可以实现基于电子的人工神经网络的关键功能,进而可以以更便宜、更快速和更节能的方式执行语音识别、图像识别等复杂任务。

【新智元导读】美国斯坦福大学的研究人员已经证明,可以直接在光学芯片上训练人工神经网络。这一重大突破表明,光学电路可以实现基于电子的人工神经网络的关键功能,进而可以以更便宜、更快速和更节能的方式执行语音识别、图像识别等复杂任务。

据光学领域权威期刊Optica的报道,美国斯坦福大学的研究人员已经证明,可以直接在光学芯片上训练人工神经网络。这一重大突破表明,光学电路可以实现基于电子的人工神经网络的关键功能,进而可以以更便宜、更快速和更节能的方式执行语音识别、图像识别等复杂任务。

“相比使用数字计算机,使用光学芯片进行神经网络计算更有效,能够解决更复杂的问题,”斯坦福大学研究团队的负责人范汕洄(Shanhui Fan)说:“这将增强人工神经网络的能力,例如,使其能够执行自动驾驶汽车所要求的任务,或者能够对口头问题做出适当的回答。这将以我们现在无法想象的方式改善我们的生活。”

人工神经网络是人工智能的一种,它使用连接的单元,以类似大脑处理信息的方式来处理信息。使用人工神经网络执行复杂的任务,例如语音识别,需要训练算法对输入进行分类,比如对不同的单词进行分类。

虽然光学人工神经网络最近已经得到实验证明,但此前的研究是在传统的数字计算机上使用一个模型进行训练步骤,然后将最终的设置导入光学电路。在最新Optica期刊上,斯坦福大学的研究人员报告了一种新方法,通过实现“反向传播”算法(这是训练传统神经网络的标准方法)的光学模拟,直接在设备中训练人工神经网络。

image

图:研究人员已经证明,神经网络可以通过光学电路(图中蓝色矩形)进行训练。在整个网络中,有若干个这样的电路连接在一起。激光输入(绿色)的编码信息由光波导(黑色)通过芯片。芯片使用可调波束分离器(光波导中弯曲的部分)执行对人工神经网络至关重要的操作。分离器将两个相邻的波导连接在一起,并可通过调整光学移相器(红色和蓝色发光物体)的设置进行调整。分离器的作用就像“旋钮”,可以在特定任务的训练过程中进行调整。Credit: Tyler W. Hughes, Stanford University

该论文的第一作者Tyler W. Hughes说:“使用物理设备而不是计算机模型进行训练,可以使训练过程更精确。”“而且,由于训练步骤是神经网络实现中非常耗费计算力的部分,因此,在光学电路上执行这个步骤,对于改进人工神经网络的计算效率、速度和功耗都是至关重要的。”

基于光的网络

虽然神经网络处理通常使用传统的计算机进行,但仍有大量的工作要专门设计针对神经网络计算优化的硬件。基于光学的设备非常吸引人,因为它们可以并行地执行计算,同时比电子设备消耗的能量更少。

在这项新研究中,研究人员通过设计一种光学芯片来复制传统计算机训练神经网络的方式,克服了实现全光学神经网络(all-optical neural network)的一个重大挑战。

人工神经网络可以被视为一个带有许多旋钮的黑盒。在训练期间,每个旋钮都要转动一点,然后测试系统,查看算法的性能是否得到改善。

“我们的方法不仅可以帮助预测旋钮转动的方向,还可以预测每个旋钮转动的方向,从而更接近预期的性能。”Hughes说,“我们的方法大大加快了训练速度,特别是对于大型网络,因为可以并行地获得每个旋钮的信息。”

片上训练

新的训练协议在具有可调谐光束分离器的光学电路运行,通过改变光学移相器的设置进行调整。具体来说,该方法是将编码有待处理信息的激光束发射到光学电路中,由光波导通过光束分离器进行传输,像旋钮一样进行调整,以训练神经网络算法。

在新的训练协议中,激光首先通过光学电路输入。退出设备后,计算出与预期结果的差值。然后,这些信息被用来产生一个新的光信号,这个信号通过光网络以相反的方向发送回来。

通过测量此过程中每个分束器周围的光强度,研究人员展示了如何并行地检测神经网络的性能随着每个分束器设置而变化的情况。移相器的设置可以根据这些信息进行更改,这个过程可以重复,直到神经网络产生期望的结果。

研究人员用光学模拟测试了他们的训练技术,方法是教算法执行复杂的任务,比如在一组点中找出复杂的特征。他们发现光学实现与传统计算机的执行类似。

该研究的负责人范汕洄说:“我们的研究表明,你可以利用物理定律来实现计算机科学算法。”“通过在光学领域对这些网络进行训练,证明光学神经网络系统可以利用光学器件来实现某些功能。”

研究人员计划进一步优化这个系统,并希望用它来实现神经网络任务的实际应用。他们设计的通用方法可用于各种神经网络架构,也可以用于其他应用。

原文:https://phys.org/news/2018-07-closer-optical-artificial-neural-network.html

原文发布时间为:2018-07-27
本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”。
原文链接:重大突破!斯坦福证明神经网络能直接在光学芯片上训练

相关文章
|
机器学习/深度学习 PyTorch 算法框架/工具
目标检测实战(一):CIFAR10结合神经网络加载、训练、测试完整步骤
这篇文章介绍了如何使用PyTorch框架,结合CIFAR-10数据集,通过定义神经网络、损失函数和优化器,进行模型的训练和测试。
581 2
目标检测实战(一):CIFAR10结合神经网络加载、训练、测试完整步骤
|
4月前
|
机器学习/深度学习 人工智能 算法
AI 基础知识从 0.6 到 0.7—— 彻底拆解深度神经网络训练的五大核心步骤
本文以一个经典的PyTorch手写数字识别代码示例为引子,深入剖析了简洁代码背后隐藏的深度神经网络(DNN)训练全过程。
903 56
|
2月前
|
机器学习/深度学习 数据可视化 网络架构
PINN训练新思路:把初始条件和边界约束嵌入网络架构,解决多目标优化难题
PINNs训练难因多目标优化易失衡。通过设计硬约束网络架构,将初始与边界条件内嵌于模型输出,可自动满足约束,仅需优化方程残差,简化训练过程,提升稳定性与精度,适用于气候、生物医学等高要求仿真场景。
348 4
PINN训练新思路:把初始条件和边界约束嵌入网络架构,解决多目标优化难题
|
8月前
|
机器学习/深度学习 存储 算法
NoProp:无需反向传播,基于去噪原理的非全局梯度传播神经网络训练,可大幅降低内存消耗
反向传播算法虽是深度学习基石,但面临内存消耗大和并行扩展受限的问题。近期,牛津大学等机构提出NoProp方法,通过扩散模型概念,将训练重塑为分层去噪任务,无需全局前向或反向传播。NoProp包含三种变体(DT、CT、FM),具备低内存占用与高效训练优势,在CIFAR-10等数据集上达到与传统方法相当的性能。其层间解耦特性支持分布式并行训练,为无梯度深度学习提供了新方向。
342 1
NoProp:无需反向传播,基于去噪原理的非全局梯度传播神经网络训练,可大幅降低内存消耗
|
机器学习/深度学习 数据可视化 计算机视觉
目标检测笔记(五):详细介绍并实现可视化深度学习中每层特征层的网络训练情况
这篇文章详细介绍了如何通过可视化深度学习中每层特征层来理解网络的内部运作,并使用ResNet系列网络作为例子,展示了如何在训练过程中加入代码来绘制和保存特征图。
399 1
目标检测笔记(五):详细介绍并实现可视化深度学习中每层特征层的网络训练情况
|
10月前
|
机器学习/深度学习 文件存储 异构计算
YOLOv11改进策略【模型轻量化】| 替换骨干网络为EfficientNet v2,加速训练,快速收敛
YOLOv11改进策略【模型轻量化】| 替换骨干网络为EfficientNet v2,加速训练,快速收敛
1127 18
YOLOv11改进策略【模型轻量化】| 替换骨干网络为EfficientNet v2,加速训练,快速收敛
|
10月前
|
机器学习/深度学习 数据可视化 API
DeepSeek生成对抗网络(GAN)的训练与应用
生成对抗网络(GANs)是深度学习的重要技术,能生成逼真的图像、音频和文本数据。通过生成器和判别器的对抗训练,GANs实现高质量数据生成。DeepSeek提供强大工具和API,简化GAN的训练与应用。本文介绍如何使用DeepSeek构建、训练GAN,并通过代码示例帮助掌握相关技巧,涵盖模型定义、训练过程及图像生成等环节。
|
10月前
|
机器学习/深度学习 文件存储 异构计算
RT-DETR改进策略【模型轻量化】| 替换骨干网络为EfficientNet v2,加速训练,快速收敛
RT-DETR改进策略【模型轻量化】| 替换骨干网络为EfficientNet v2,加速训练,快速收敛
265 1
|
12月前
|
人工智能 搜索推荐 决策智能
不靠更复杂的策略,仅凭和大模型训练对齐,零样本零经验单LLM调用,成为网络任务智能体新SOTA
近期研究通过调整网络智能体的观察和动作空间,使其与大型语言模型(LLM)的能力对齐,显著提升了基于LLM的网络智能体性能。AgentOccam智能体在WebArena基准上超越了先前方法,成功率提升26.6个点(+161%)。该研究强调了与LLM训练目标一致的重要性,为网络任务自动化提供了新思路,但也指出其性能受限于LLM能力及任务复杂度。论文链接:https://arxiv.org/abs/2410.13825。
228 12
|
机器学习/深度学习 自然语言处理 语音技术
Python在深度学习领域的应用,重点讲解了神经网络的基础概念、基本结构、训练过程及优化技巧
本文介绍了Python在深度学习领域的应用,重点讲解了神经网络的基础概念、基本结构、训练过程及优化技巧,并通过TensorFlow和PyTorch等库展示了实现神经网络的具体示例,涵盖图像识别、语音识别等多个应用场景。
440 8

热门文章

最新文章