一、本文介绍
本文记录的是利用ParNet
中的基础模块优化RT-DETR
的目标检测网络模型。 ParNet block
是一个即插即用模块,==能够在不增加深度的情况下增加感受野,更好地处理图像中的不同尺度特征,有助于网络对输入数据更全面地理解和学习,从而提升网络的特征提取能力和分类性能。==
专栏目录:RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:RT-DETR改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!
二、ParNet 介绍
NON-DEEP NETWORKS
ParNet block
模块是ParNet网络架构中的重要组成部分,其设计出发点、原理、结构和优势如下:
2,1 设计出发点
- 探索非深度网络的高性能:为了研究是否可以通过非深度(约10层)的神经网络在竞争激烈的基准测试中实现高性能,需要一种适合的网络模块结构。
- 解决训练难题与提升性能:VGG-style网络训练通常比ResNet-style网络更困难,但通过“结构重参数化”技术可以使训练变得容易些,同时还需要解决非深度网络中如 receptive field有限以及可能缺乏足够非线性等问题,以提升性能。
2.2 原理
- 结构重参数化:在训练过程中使用多个分支的 $3×3$ 卷积块,训练完成后将这些分支融合成一个 $3×3$ 卷积,从而减少推理过程中的延迟。
- 增加非线性与提升感受野:采用Skip - Squeeze - Excitation (SSE) 层来增加感受野且不影响深度,同时用SiLU激活函数替换ReLU激活函数以增加网络的非线性。
2.3 结构
- 基础结构:从Rep - VGG块借鉴初始设计并进行修改。
- SSE模块:基于Squeeze - and - Excitation (SE) 设计构建Skip - Squeeze - Excitation (SSE) 层,该层与跳跃连接一起使用,并包含一个单一的全连接层。
- 激活函数:采用SiLU激活函数。
论文:https://arxiv.org/pdf/2110.07641
源码:https://github.com/imankgoyal/NonDeepNetworks
三、实现代码及YOLOv11修改步骤
模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址: