论文阅读:RRPN:RADAR REGION PROPOSAL NETWORK FOR OBJECT DETECTION IN AUTONOMOUS VEHICLES

简介: 论文阅读:RRPN:RADAR REGION PROPOSAL NETWORK FOR OBJECT DETECTION IN AUTONOMOUS VEHICLES

写在前面

  在上篇文章中,我们学习到了激光雷达和相机融合的论文。那么这篇文章我将来介绍一下毫米波雷达和相机融合的方法。这里我先给出三种传感器(相机、激光雷达、毫米波雷达)的一些属性特点,如下:

image.png  radar可以在检测到的物体上提供准确的距离和速率信息,但它们不适用于诸如物体分类之类的任务,因为它不能够识别物体的属性。另一方面,相机是用于对象分类的非常有效的传感器,使radar和相机传感器融合成为自动驾驶应用中非常有趣的话题。

RRPN网络

这篇文章的核心就是这个RRPN网络,主要由三个部分组成,即透视变换、锚点生成、距离补偿。值得一提的是这个RRPN网络是非常好理解的,但是你需要对fast-RCNN、faster-RCNN有一定的认识,论文中网络的整体整体框架也是和fast-RCNN类似的。下面将来分别介绍这三个部分。

  • 透视变换

生成 ROI 的第一步是将雷达检测从车辆坐标映射到摄像机视图坐标。 雷达检测以鸟瞰图的形式报告,如下图所示,物体的距离和方位角在车辆的坐标系中测量。 通过将这些检测到的量映射到相机视图坐标,我们能够将雷达检测到的对象与相机获得的图像中看到的对象相关联。

9a64d99b942b5042ef4a3e77ceb8d15f.png

  上文红色字体的意思就是说我们可以将毫米波雷达的角度和距离数据投影到相机的三维坐标中,为方便大家理解,我画了从雷达坐标到相机坐标转化的示意图,如下:

d2528d7e73cd80faa2fc1147914201a5.png

这样我们就得到了相机坐标系下的坐标,之后可以通过四系坐标转化将坐标投影到像素坐标系下。论文中还提到了相机的标定,这里给出张氏标定法参考链接:https://blog.csdn.net/qq_47233366/article/details/124165936?spm=1001.2014.3001.5502🥝🥝🥝


  • 锚点生成


从上一步我们已经将毫米波雷达检测坐标投影到了像素坐标系下,这时我们就有了图像中每个检测到的物体的大致位置。这些映射到图像上的点(以下称为兴趣点 (POI)) 提供了有关每个图像中对象的有价值的信息,从而无需对图像本身进行任何处理。有了这些信息,提出ROI的一种简单方法就是引入一个以每个POI为中心的边界框。但是这样的处理会存在一些问题,一个问题是雷达检测并不总是映射到每个图像中检测到的对象的中心。另一个问题是,雷达不提供关于检测到的物体的大小的任何信息。为解决这些问题,论文中采取了不同大小和不同比例的候选框且候选框在POI不同位置的策略,如下图所示:【其实这里就基本和fastet-RCNN类似】5e77a73c59321b69e76114b98ff10284.png


  • 距离补偿


 每个物体与车辆的距离在确定其在图像中的尺寸方面起着重要作用。通常,图像中物体的大小与其与相机的距离成反比关系。雷达检测具有每个检测到的物体的距离信息,在此步骤中用于缩放所有生成的锚点。我们使用以下公式来确定要在锚点上使用的缩放因子:image.png


实验结果

  实验中使用两种不同的骨干网络,一个是ResNet-101(后文简称R101),一个是ResNext-101(后文称X101),且设置了两个数据集,如下:

第一个子集 第二个子集
NS-F NS-FB
包含前置摄像头和前置雷达 包含后置摄像头和两个后置雷达
共有23k个样本 共有45k个样本

image.png

  从上图可以看出,实验RRPN网络的检测精度要比使用SS算法高,此外在实验中,RRPN 能够每秒 处理70 到 90 张图像,而选择性搜索算法每张图像需要 2-7 秒,也就是说使用RRPN网络可以大大提高网络的速度。


论文下载

下载地址:https://arxiv.org/pdf/1905.00526.pdf

 

相关文章
|
20天前
|
UED 开发工具 iOS开发
Uno Platform大揭秘:如何在你的跨平台应用中,巧妙融入第三方库与服务,一键解锁无限可能,让应用功能飙升,用户体验爆棚!
【8月更文挑战第31天】Uno Platform 让开发者能用同一代码库打造 Windows、iOS、Android、macOS 甚至 Web 的多彩应用。本文介绍如何在 Uno Platform 中集成第三方库和服务,如 Mapbox 或 Google Maps 的 .NET SDK,以增强应用功能并提升用户体验。通过 NuGet 安装所需库,并在 XAML 页面中添加相应控件,即可实现地图等功能。尽管 Uno 平台减少了平台差异,但仍需关注版本兼容性和性能问题,确保应用在多平台上表现一致。掌握正确方法,让跨平台应用更出色。
26 0
|
机器学习/深度学习 人工智能 并行计算
【YOLOv5】LabVIEW+YOLOv5快速实现实时物体识别(Object Detection)含源码
在LabVIEW中调用YOLOv5快速实现实时物体识别,感受丝滑般物体识别
397 0
|
XML TensorFlow API
TensorFlow Object Detection API 超详细教程和踩坑过程
TensorFlow Object Detection API 超详细教程和踩坑过程
194 1
|
算法 数据可视化 机器人
Object SLAM: An Object SLAM Framework for Association, Mapping, and High-Level Tasks 论文解读
Object SLAM: An Object SLAM Framework for Association, Mapping, and High-Level Tasks 论文解读
71 0
|
数据可视化 数据挖掘 测试技术
【计算机视觉】Open-Vocabulary Object Detection 论文工作总结
Open-Vocabulary Object Detection (OVD)可以翻译为**“面向开放词汇下的目标检测”,**该任务和 zero-shot object detection 非常类似,核心思想都是在可见类(base class)的数据上进行训练,然后完成对不可见类(unseen/ target)数据的识别和检测,除了核心思想类似外,很多论文其实对二者也没有进行很好的区分。
|
机器学习/深度学习 计算机视觉
【计算机视觉 | 目标检测】Open-Vocabulary Object Detection Using Captions
出发点是制定一种更加通用的目标检测问题,目的是借助于大量的image-caption数据来覆盖更多的object concept,使得object detection不再受限于带标注数据的少数类别,从而实现更加泛化的object detection,识别出更多novel的物体类别。
|
机器学习/深度学习 算法 计算机视觉
【计算机视觉 | 目标检测】Open-vocabulary Object Detection via Vision and Language Knowledge Distillation
在这项工作中,我们考虑借用预训练的开放词汇分类模型中的知识来实现open vocabulary检测。
|
数据可视化 计算机视觉
【计算机视觉】Towards Open Vocabulary Object Detection without Human-provided Bounding Boxes
我们的方法利用预先训练的视觉语言模型的定位能力来生成伪边界框标签,然后直接使用它们来训练目标检测器。
|
机器学习/深度学习 并行计算 算法
手把手教你使用LabVIEW OpenCV dnn实现物体识别(Object Detection)含源码
今天和大家一起分享如何使用LabVIEW调用pb模型实现物体识别
128 0