黑夜也能五颜六色,用深度学习实现全彩夜视系统

简介: 黑夜也能五颜六色,用深度学习实现全彩夜视系统

在一些军事大片中,士兵头戴夜视仪搜索前进似乎是少不了的场景。使用红外光在黑夜中观察的夜视系统通常将视物渲染成单色图像。

图源:flir.com

不过,在最近的一项研究中,加州大学欧文分校的科学家们借助深度学习 AI 技术设计了一新方法,有了这种方法,红外视觉有助于在无光条件下看到场景中的可见颜色。

研究共同一作、加州大学欧文分校工程师、外科医生和视觉科学家 Andrew Browne 表示,「世界上很多地方都以人们赖以做出决策的方式进行颜色编码,比如信号灯。」

夜视系统是个特例。使用红外光照亮黑夜的夜视系统通常仅以绿色渲染场景,而无法显示出在正常光线下可见的颜色。一些较新的夜视系统使用超灵敏相机放大可见光,但这些相机几乎不能显示出漆黑环境中没有光可放大的颜色。

Andrew Browne

因此,在这项研究中,研究者推断,赋予物体可见光的每种染料和颜料不仅反射了一组可见波长,而且可能反射一组红外波长。那么,如果可以训练一个能够识别每种染料和颜料的红外指纹的夜视系统,则能够使用与每种染料和颜料相关的可见光来显示图像。

效果图

目前,相关论文已在期刊 PLOS ONE 上发表。

论文地址:https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0265185

这项研究是从不能感知的近红外照明中预测人类可见光谱场景的第一步。接下来的工作可以极大地促进各种应用,比如夜视系统和对可见光敏感的生物样本研究。

研究概述

人类可以感知 400-700nm 可见光谱中的光。一些夜视系统使用人类无法感知的红外光,将渲染后的图像转换到数字显示器上,最后在可见光谱中呈现单色图像。

研究者想要开发一种由优化深度学习架构驱动的成像算法,从而可以使用场景中的红外光谱光照来预测该场景中的可见光谱渲染,就好像人类使用可见光谱光感知它一样。当人类处于完全「黑暗」并只有红外光照射时,他们能够以数字方式渲染可见光谱场景。

图像处理目标。仅使用红外光照显示的图像与使用深度学习处理 NIR 数据后的可见光谱图像比较。

Andrew Browne 表示,「单色相机对它所看到的场景中反射的任何光子都很敏感。因此,我们使用可调光源将光照射到场景上,并使用单色相机捕捉在所有不同照明颜色下从该场景反射的光子。」

为此,研究者采用了一个对可见光和近红外光敏感的单色相机,在覆盖标准可见红光(604nm)、绿光(529nm)和蓝光(447nm)以及红外波长(718、777 和 807 nm)的多光谱照明下采集面部打印图像的图像数据集。接着,他们对具有类 U-Net 架构的卷积神经网络进行优化,以仅从近红外图像中预测可见光谱图像。

人脸肖像库中的示例图像。

接着,研究者将三张红外图像与彩色图像配对,以训练一个人工智能神经网络来对场景中的颜色进行预测。在经过训练并提升性能之后,该神经网络能够从三张看起来非常接近真实物体的红外线图像中重建彩色图像。下图左为用可见光谱的真彩色,图右为深度学习算法加持下的彩色。

Andrew Browne 说到,「当我们增加红外通道或红外颜色数量时,它会提供更多数据,我们也能更好地预测实际看起来非常接近真实图像的应是什么。我们在这项研究中提出的方法可以用来获取三种不同红外颜色的图像,这三种颜色人眼无法看到。」

不过,研究者只在打印的彩色照片上测试了他们的算法和技术。他们正在寻求将这些算法和技术应用于视频,并最终应用于真实世界的物体和人类主体。

参考链接:https://spectrum.ieee.org/night-vision-infraredhttps://www.popsci.com/technology/ai-infrared-night-vision-in-color/

相关文章
|
4月前
|
机器学习/深度学习 城市大脑 安全
基于深度学习的客流量预测系统
本文分析了疫情后旅游市场复苏带动地铁客流增长的背景,探讨了客流预测对交通运营的重要性,综述了基于多源数据与深度学习模型(如LSTM、STGCN)的研究进展,并介绍了CNN与RNN在人流预测中的技术原理及系统实现路径。
|
8月前
|
机器学习/深度学习 监控 算法
基于mediapipe深度学习的手势数字识别系统python源码
本内容涵盖手势识别算法的相关资料,包括:1. 算法运行效果预览(无水印完整程序);2. 软件版本与配置环境说明,提供Python运行环境安装步骤;3. 部分核心代码,完整版含中文注释及操作视频;4. 算法理论概述,详解Mediapipe框架在手势识别中的应用。Mediapipe采用模块化设计,包含Calculator Graph、Packet和Subgraph等核心组件,支持实时处理任务,广泛应用于虚拟现实、智能监控等领域。
|
4月前
|
机器学习/深度学习 传感器 算法
基于yolo8的深度学习室内火灾监测识别系统
本研究基于YOLO8算法构建室内火灾监测系统,利用计算机视觉技术实现火焰与烟雾的实时识别。相比传统传感器,该系统响应更快、精度更高,可有效提升火灾初期预警能力,保障生命财产安全,具有重要的应用价值与推广前景。
|
机器学习/深度学习 人工智能 算法
猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
1187 55
|
5月前
|
机器学习/深度学习 数据采集 算法
基于mediapipe深度学习的运动人体姿态提取系统python源码
本内容介绍了基于Mediapipe的人体姿态提取算法。包含算法运行效果图、软件版本说明、核心代码及详细理论解析。Mediapipe通过预训练模型检测人体关键点,并利用部分亲和场(PAFs)构建姿态骨架,具有模块化架构,支持高效灵活的数据处理流程。
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的眼疾识别系统实现~人工智能+卷积网络算法
眼疾识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了4种常见的眼疾图像数据集(白内障、糖尿病性视网膜病变、青光眼和正常眼睛) 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Django框架搭建了一个Web网页平台可视化操作界面,实现用户上传一张眼疾图片识别其名称。
627 5
基于Python深度学习的眼疾识别系统实现~人工智能+卷积网络算法
|
5月前
|
机器学习/深度学习 算法 vr&ar
【深度学习】基于最小误差法的胸片分割系统(Matlab代码实现)
【深度学习】基于最小误差法的胸片分割系统(Matlab代码实现)
130 0
|
7月前
|
机器学习/深度学习 存储 监控
基于深度学习YOLO框架的城市道路损伤检测与评估项目系统【附完整源码+数据集】
本项目基于深度学习的YOLO框架,成功实现了城市道路损伤的自动检测与评估。通过YOLOv8模型,我们能够高效地识别和分类路面裂缝、井盖移位、坑洼路面等常见的道路损伤类型。系统的核心优势在于其高效性和实时性,能够实时监控城市道路,自动标注损伤类型,并生成损伤评估报告。
429 0
基于深度学习YOLO框架的城市道路损伤检测与评估项目系统【附完整源码+数据集】
|
7月前
|
机器学习/深度学习 自动驾驶 算法
基于深度学习的YOLO框架的7种交通场景识别项目系统【附完整源码+数据集】
在智慧交通和智能驾驶日益普及的今天,准确识别复杂交通场景中的关键元素已成为自动驾驶系统的核心能力之一。传统的图像处理技术难以适应高动态、复杂天气、多目标密集的交通环境,而基于深度学习的目标检测算法,尤其是YOLO(You Only Look Once)系列,因其检测速度快、精度高、可部署性强等特点,在交通场景识别中占据了重要地位。
882 0
基于深度学习的YOLO框架的7种交通场景识别项目系统【附完整源码+数据集】