超快、超低能耗!北大团队提出基于卷积神经网络的全光计算

简介: 超快、超低能耗!北大团队提出基于卷积神经网络的全光计算

编辑/凯霞随着先进工程计算、经济数据分析和云计算的快速发展,对超高速和高能效计算的需求呈指数级增长。现有的冯诺依曼架构下的传统电子信号处理器难以同时实现高速和低能耗。使用光子作为信息载体是一种很有前景的选择。由于传统材料的三阶非线性光学较弱,在传统冯诺依曼架构下构建集成光子计算芯片一直是一个挑战。近日,由北京大学物理学院龚旗煌研究团队提出了一种基于卷积神经网络(CNN)实现超快超低能耗全光计算芯片方案的新策略,支持多计算任务的执行。这项工作为下一代全光计算系统指明了方向。该研究以「All-optical computing based on convolutional neural networks」为题,于 11 月 25 日发表在《Opto-Electronic Advances》上。

电子向光子的转变

现有的计算仪器以电子处理器为主,以电子为信息载体,具有冯诺依曼架构,存储与处理物理分离。计算速度的扩展不仅受到内存和处理单元之间的数据传输的限制,还受到与集成电路相关的 RC 延迟的限制。此外,由于欧姆损耗导致的过度加热正在成为速度和功耗缩放的严重瓶颈。采用光子作为信息载体的全光计算提供了一种有前途的替代方法。当前,光计算通常依靠三阶非线性光学来实现全光控制。然而,超快的响应时间和巨大的非线性通常在光学材料中呈现出一种固有的权衡,因此较大的非线性敏感性通常只能以较慢的响应时间为代价来获得。这种权衡对构建遵循冯诺依曼架构的集成光子处理器提出了重大挑战,通常要求在单个芯片中进行各种光子器件的复杂异构集成。因此,为全光计算探索新的架构和非常规的计算方案势在必行。在这里,报告了一种实现超快、超低能耗全光计算的新策略,包括方程求解、基于 CNN 的多功能逻辑运算。研究人员表示:这是第一个在全光学芯片上实现物理固定的 CNN。

全光计算框架通用架构。

光学 CNN 由级联硅 Y 形波导和侧耦合硅波导段组成,以实现每个波导分支中的完整相位和幅度控制。这种概念和架构简单的设计独特地提供了超快的计算时间和低能耗。

全光计算性能

通用设备概念可用于方程求解、多功能逻辑运算以及许多其他数学运算。接下来,通过实验证明了包括超越方程求解器、各种逻辑门算子和半加器在内的多种计算功能,以验证全光计算性能。全光超越方程求解器方程是描述系统状态和过程的有效工具,求解方程可以告知所研究系统的状态并预测系统演化的轨迹。由于超越方程除少数情况外只能进行数值求解,因此超越方程的数值求解仍然是数学计算中的一个重要课题。该团队开发了一种求解器,它可以使用具有出色计算性能的光学 CNN 可预测地求解超越方程。

全光超越方程求解器。

测试结果表明,本文提出的超越方程求解器具有较高的求解精度,最大偏差小于 5%,多数情况下偏差小于 3%。这种偏差是由于输出波导数量有限和样品制作不完善造成的。因此,需要强调的是,理论上可以通过增加输出波导的数量来提高求解的精度。除了出色的求解精度外,全光学方程求解器还具有超快(通过特征结构的光的飞行时间为~1.3 ps)和能效计算(~92 fJ/bit)的特点。多种逻辑门运算符全光逻辑门构成了超高速全光芯片的基本构建块,任何复杂的光逻辑电路都可以由这些逻辑门组成。此外,逻辑运算为更复杂的光信号处理功能奠定了基础。然而,目前基于信号光线性相干或非线性相互作用的全光逻辑器件设计在实现高速、低功耗的可重构性和多功能操作(在单个芯片中实现多个逻辑功能)方面仍然面临挑战。研究人员利用网络的可扩展性来优化片上全光多种逻辑设备。该设计优化了 6 个输入端口,包括 2 个信号输入端和 4 个控制位,共 5 层。通过七种不同的 CNN 结构可以实现 16 种逻辑函数。选择其中一种光学 CNN 结构进行了说明。

多种逻辑门。

研究表明,可以实现低至 10.4 aJ/bit 的能耗,同时保持低错误率。此外,光学 CNN 的输出逻辑状态在执行多个逻辑功能时很容易区分。也就是说,未来更多的级联扩展可能仍然有效。半加器全光半加器可以执行将两个输入数据位相加并在全光实现中产生一个和位和一个进位位的计算任务。在这里,展示了一个基于其光学 CNN 平台的全光学半加器。

半加器。

通过算法优化确定了 12 个网络权重。逻辑状态 0 和 1 之间的平均光强对比度为 14.2 dB。飞行时间计算时间为 2.7 ps,能耗为 50.8 fJ/bit。进一步分析表明,可以实现低至 23.8 aJ/bit 的能耗,同时保持 10^-9 的低错误率。在实现高强度对比度的同时成功展示了半加器的功能,这进一步验证了 CNN 设计的高度可扩展性和广泛适用于各种全光处理功能。

超快和超低能耗

总之,研究人员通过实验证明了第一个基于硅波导的用于全光计算的物理固定 CNN。实现了设计以实现全光超越方程求解器、各种逻辑门算子和半加器,所有这些都表现出皮秒级超快运算和每比特数十飞焦量级的超低能耗。这种光网络架构易于扩展,有可能通过级联基本元素结构进一步扩展以执行其他复杂的计算任务。此外,该平台提供了使用波长复用进行并行计算的可能性。因此,该工作为下一代全光计算系统指明了一个有希望的方向。

论文链接:https://www.oejournal.org/article/doi/10.29026/oea.2021.200060

参考内容:https://phys.org/news/2021-11-all-optical-based-convolutional-neural-networks.html

相关文章
|
2月前
|
机器学习/深度学习 PyTorch TensorFlow
卷积神经网络深度解析:从基础原理到实战应用的完整指南
蒋星熠Jaxonic,深度学习探索者。深耕TensorFlow与PyTorch,分享框架对比、性能优化与实战经验,助力技术进阶。
|
3月前
|
机器学习/深度学习 人工智能 算法
卷积神经网络深度解析:从基础原理到实战应用的完整指南
蒋星熠Jaxonic带你深入卷积神经网络(CNN)核心技术,从生物启发到数学原理,详解ResNet、注意力机制与模型优化,探索视觉智能的演进之路。
431 11
|
6月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于PSO粒子群优化TCN-LSTM时间卷积神经网络时间序列预测算法matlab仿真
本内容展示了一种基于粒子群优化(PSO)与时间卷积神经网络(TCN)的时间序列预测方法。通过 MATLAB2022a 实现,完整程序运行无水印,核心代码附详细中文注释及操作视频。算法利用 PSO 优化 TCN 的超参数(如卷积核大小、层数等),提升非线性时间序列预测性能。TCN 结构包含因果卷积层与残差连接,结合 LSTM 构建混合模型,经多次迭代选择最优超参数,最终实现更准确可靠的预测效果,适用于金融、气象等领域。
|
3月前
|
机器学习/深度学习 传感器 数据采集
【故障识别】基于CNN-SVM卷积神经网络结合支持向量机的数据分类预测研究(Matlab代码实现)
【故障识别】基于CNN-SVM卷积神经网络结合支持向量机的数据分类预测研究(Matlab代码实现)
271 0
|
5月前
|
机器学习/深度学习 人工智能 PyTorch
零基础入门CNN:聚AI卷积神经网络核心原理与工业级实战指南
卷积神经网络(CNN)通过局部感知和权值共享两大特性,成为计算机视觉的核心技术。本文详解CNN的卷积操作、架构设计、超参数调优及感受野计算,结合代码示例展示其在图像分类、目标检测等领域的应用价值。
322 7
|
7月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于PSO粒子群优化TCN时间卷积神经网络时间序列预测算法matlab仿真
本内容介绍了一种基于PSO(粒子群优化)改进TCN(时间卷积神经网络)的时间序列预测方法。使用Matlab2022a运行,完整程序无水印,附带核心代码中文注释及操作视频。TCN通过因果卷积层与残差连接处理序列数据,PSO优化其卷积核权重等参数以降低预测误差。算法中,粒子根据个体与全局最优位置更新速度和位置,逐步逼近最佳参数组合,提升预测性能。
|
6月前
|
机器学习/深度学习 数据采集 监控
基于CNN卷积神经网络和GEI步态能量提取的步态识别算法matlab仿真,对比不同角度下的步态识别性能
本项目基于CNN卷积神经网络与GEI步态能量提取技术,实现高效步态识别。算法使用不同角度(0°、45°、90°)的步态数据库进行训练与测试,评估模型在多角度下的识别性能。核心流程包括步态图像采集、GEI特征提取、数据预处理及CNN模型训练与评估。通过ReLU等激活函数引入非线性,提升模型表达能力。项目代码兼容Matlab2022a/2024b,提供完整中文注释与操作视频,助力研究与应用开发。
|
6月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于WOA鲸鱼优化的TCN-GRU时间卷积神经网络时间序列预测算法matlab仿真
本内容包含时间序列预测算法的相关资料,涵盖以下几个方面:1. 算法运行效果预览(无水印);2. 运行环境为Matlab 2022a/2024b;3. 提供部分核心程序,完整版含中文注释及操作视频;4. 理论概述:结合时间卷积神经网络(TCN)与鲸鱼优化算法(WOA),优化TCN超参数以提升非线性时间序列预测性能。通过因果卷积层与残差连接构建TCN模型,并用WOA调整卷积核大小、层数等参数,实现精准预测。适用于金融、气象等领域决策支持。
|
6月前
|
机器学习/深度学习 数据采集 并行计算
基于WOA鲸鱼优化的TCN时间卷积神经网络时间序列预测算法matlab仿真
本内容介绍了一种基于TCN(Temporal Convolutional Network)与WOA(Whale Optimization Algorithm)的时间序列预测算法。TCN通过扩张卷积捕捉时间序列长距离依赖关系,结合批归一化和激活函数提取特征;WOA用于优化TCN网络参数,提高预测精度。算法流程包括数据归一化、种群初始化、适应度计算及参数更新等步骤。程序基于Matlab2022a/2024b开发,完整版含详细中文注释与操作视频,运行效果无水印展示。适用于函数优化、机器学习调参及工程设计等领域复杂任务。
|
6月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于PSO粒子群优化TCN-GRU时间卷积神经网络时间序列预测算法matlab仿真
本内容涵盖基于粒子群优化(PSO)与时间卷积神经网络(TCN)的时间序列预测算法。完整程序运行效果无水印,适用于Matlab2022a版本。核心代码配有详细中文注释及操作视频。理论部分阐述了传统方法(如ARIMA)在非线性预测中的局限性,以及TCN结合PSO优化超参数的优势。模型由因果卷积层和残差连接组成,通过迭代训练与评估选择最优超参数,最终实现高精度预测,广泛应用于金融、气象等领域。

热门文章

最新文章