深度学习设计的衍射处理器并行计算数百个变换

简介: 深度学习设计的衍射处理器并行计算数百个变换


编辑 | 绿萝在当今的数字时代,计算任务变得越来越复杂。反过来,这导致数字计算机消耗的功率呈指数增长。因此,有必要开发能够以快速和节能的方式执行大规模计算的硬件资源。使用光学计算执行线性变换在速度、并行性和可扩展性方面具有潜在优势。到目前为止,研究人员已经成功设计了单色(单波长照明)衍射网络,用于实现单一线性变换(矩阵乘法)操作。但是有没有可能同时实现更多的线性变换呢?近日,来自加州大学洛杉矶分校(UCLA)的研究小组解决了这个问题。他们在衍射光网络中采用了波长复用方案,并展示了使用宽带衍射处理器执行大规模并行线性变换操作的可行性。从而大大提高了全光计算的吞吐量。大规模并行、波长复用衍射网络将有助于设计高吞吐量智能机器视觉系统和高光谱处理器,可以执行统计推断并分析具有独特光谱特性的物体/场景。该研究以「Massively parallel universal linear transformations using a wavelength-multiplexed diffractive optical network」为题,于 2023 年 1 月 9 日发布在《Advanced Photonics》上。

论文链接:https://doi.org/10.1117/1.AP.5.1.016003

计算在构建智能数字社会中发挥着越来越重要的作用。数字计算机功耗呈指数级增长,给大规模计算带来了一些重要挑战。光学计算可以在功率效率、处理速度和并行性方面提供潜在优势。光学和机器学习之间的协同作用使得能够使用基于深度学习的优化来设计新型光学组件,同时还允许开发用于人工智能的高级光学/光子信息处理平台。在不同的光学计算设计中,衍射光学神经网络代表了一种基于自由空间的框架,可用于执行光学元件的计算、统计推断和逆向设计。衍射神经网络已被用于执行各种光学信息处理任务。采用连续的空间工程衍射表面作为确定性光学元件逆向设计的主干,也使许多应用成为可能。衍射网络还用作通用计算模块,可用于创建紧凑、节能的全光处理器。在此,研究人员将严格解决和分析以下问题。让我们想象一个光学黑匣子(由衍射表面和/或可重构空间光调制器组成):如何设计该黑匣子以同时实现,例如,Nw > 1000 个独立的线性变换对应于 >1000 个不同的矩阵乘法( 具有 >1000 个不同的独立矩阵)在 Nw > 1000 个不同的独特波长?该研究的通讯作者,加州大学洛杉矶分校 Chancellor 教授 Aydogan Ozcan,简要描述了这种光学处理器的架构和原理:「宽带衍射光学处理器分别具有 Ni 和 No 像素的输入和输出视场。它们由连续的结构化衍射层连接,由无源透射材料制成。一组预定的 Nw 离散波长对输入和输出信息进行编码。每个波长专用于一个独特的目标函数或复值线性变换,」他解释道。「这些目标转换可以专门分配给不同的函数,例如图像分类和分割,或者它们可以专门用于计算不同的卷积滤波器操作或神经网络中的完全连接层。所有这些线性变换或所需函数都以光速同时执行,其中每个所需函数都被分配到唯一的波长。这使得宽带光处理器能够以极高的吞吐量和并行性进行计算。需要强调的是,这项工作的目标不是训练宽带衍射网络仅对少数输入-输出场对实施正确的线性变换。目标不是将衍射层用作一种可以输出不同波长的不同图像或光场的超材料。相反,其目标是将宽带衍射处理器的性能推广到无限多对输入和输出复场,以满足每个光谱通道的目标线性变换,从而实现多个复值矩阵向量乘法的通用全光计算, 由一组照明波长 (Nw >> 1) 访问。与以往的文献相比,本文具有多个独特之处:(1)这是空间工程衍射系统的首次展示,可实现光谱复用通用线性变换;(2)通过单波长复用衍射网络(例如,Nw > 180)报告的大规模复用水平明显高于其他复用通道,包括偏振分集,并且这个数字可以进一步增加到 Nw ≈ 2000 在网络设计中使用了更多的衍射神经元 (N);(3)基于深度学习的衍射层训练使用自适应光谱权重来均衡分配给 Nw 个不同波长的所有线性变换的性能;(4)使用波长复用执行多重线性变换的能力不需要将任何波长敏感的光学元件添加到衍射网络设计中,除了波长扫描或带解复用滤波器的宽带照明;(5)该波长复用衍射处理器可以使用具有不同色散特性的多种材料((包括色散曲线平坦的材料))来实现,并且广泛适用于电磁波谱的不同部分,包括可见波段。

图示:大规模并行、波长复用衍射光学计算示意图。(来源:论文)

研究人员证明,当其衍射特征总数 N 大于或等于 2NwNiNo 时,这种波长复用光学处理器设计可以近似 Nw 个独特的线性变换,误差可忽略不计。

图示:用于 ground truth(目标)变换的输入/输出复杂场的示例以及使用 𝑵 ≈ 2𝑵𝒘𝑵𝒊𝑵𝒐 = 16𝑵𝒊𝑵𝒐 = 64.8k(𝑵𝒊 = 𝑵𝒐 = 8^2)的 8 通道波长复用衍射设计产生的全光输出场的示例。(来源:论文)

该结论通过数值模拟针对 Nw > 180 次不同的转换得到证实,并且对具有不同色散特性的材料有效。此外,使用更大的 N (3NwNiNo) 将 Nw 进一步增加到大约 2000 个独特的转换,这些转换都是光学并行执行的。关于这种新计算设计的前景,Ozcan 说:「这种大规模并行、波长复用的衍射处理器将有助于设计高吞吐量智能机器视觉系统和高光谱处理器,并可能激发各个领域的众多应用,包括生物医学成像、 遥感、分析化学和材料科学。」参考内容:https://phys.org/news/2023-01-deep-learning-designed-diffractive-processor-hundreds.html

相关文章
|
人工智能 机器人 数据安全/隐私保护
【必看!】阿里云推出QWen-7B和QWen-7b-Chat,开放免费商用!
阿里云最近发布了两款大型开源模型QWen-7B和QWen-7b-Chat,这两款模型的参数规模达到了70亿,用户可以在Hugging Face和ModelScope上免费使用。尽管大型模型的热度近期有所下降,但阿里云选择开源模型来赢得用户的支持,并保持自身在竞争中的优势。这一举措也引起了人们的关注,因为不开源可能会导致信息泄露的风险。通过开源模型,阿里云既能满足用户需求,又能保持技术竞争力。
1644 0
 【必看!】阿里云推出QWen-7B和QWen-7b-Chat,开放免费商用!
|
9月前
|
机器学习/深度学习 自然语言处理 算法
PyTorch PINN实战:用深度学习求解微分方程
物理信息神经网络(PINN)是一种将深度学习与物理定律结合的创新方法,特别适用于微分方程求解。传统神经网络依赖大规模标记数据,而PINN通过将微分方程约束嵌入损失函数,显著提高数据效率。它能在流体动力学、量子力学等领域实现高效建模,弥补了传统数值方法在高维复杂问题上的不足。尽管计算成本较高且对超参数敏感,PINN仍展现出强大的泛化能力和鲁棒性,为科学计算提供了新路径。文章详细介绍了PINN的工作原理、技术优势及局限性,并通过Python代码演示了其在微分方程求解中的应用,验证了其与解析解的高度一致性。
3013 5
PyTorch PINN实战:用深度学习求解微分方程
|
11月前
|
人工智能 算法 芯片
天天都在说的“算力”到底是个啥?一文全讲透!
算力是数字经济发展的重要支撑,尤其在AI和大数据应用中起着关键作用。阿里云致力于构建全球领先的算力基础设施,助力各行业数字化转型。吴泳铭和马云均强调了算力在未来科技竞争中的核心地位。2023年底,我国算力总规模达230EFLOPS,位居全球第二。算力分为通用、智能和超算算力,广泛应用于人工智能训练与推理等场景。中国正加速建设智算中心,推动算力产业链发展,并注重绿色低碳和智能运维,以应对日益增长的计算需求。
17033 19
|
PyTorch 算法框架/工具
已解决虚拟机yolov5报错:AttributeError: ‘Upsample‘ object has no attribute ‘recompute_scale_factor‘
已解决虚拟机yolov5报错:AttributeError: 'Upsample' object has no attribute 'recompute_scale_factor'
1291 0
已解决虚拟机yolov5报错:AttributeError: ‘Upsample‘ object has no attribute ‘recompute_scale_factor‘
|
机器学习/深度学习 人工智能 并行计算
深度学习设计的衍射处理器并行计算数百个变换
深度学习设计的衍射处理器并行计算数百个变换
158 0
深度学习设计的衍射处理器并行计算数百个变换
|
存储 程序员 开发工具
Py之configobj:configobj的简介、安装、使用方法之详细攻略
Py之configobj:configobj的简介、安装、使用方法之详细攻略
Py之configobj:configobj的简介、安装、使用方法之详细攻略
|
3天前
|
数据采集 人工智能 安全
|
12天前
|
云安全 监控 安全