RT-DETR改进策略【Conv和Transformer】| 2023 引入CloFormer中的Clo block 双分支结构,融合高频低频信息(二次创新AIFI)

简介: RT-DETR改进策略【Conv和Transformer】| 2023 引入CloFormer中的Clo block 双分支结构,融合高频低频信息(二次创新AIFI)

一、本文介绍

本文记录的是利用CloFormer中的Clo block优化RT-DETR的网络模型Clo block的作用在于采用双分支结构,同时包含了局部分支和全局分支,克服了现有轻量级模型在处理高频局部信息时的不足。相比一些只注重设计稀疏注意力来处理低频全局信息或仅使用单一类型权重处理局部信息的方法,能更好地表达网络特征。本文将其加入到RT-DETR中,并进行二次创新,来综合高低频信息,更好地突出重要特征,从而提升模型在各种视觉任务中的性能。


专栏目录:RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:RT-DETR改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、CloFormer模块介绍

Rethinking Local Perception in Lightweight Vision Transformer

2.1 设计出发点

现有轻量级模型在处理高频局部信息时存在不足。大多数方法只注重设计稀疏注意力来处理低频全局信息,处理高频局部信息的方法相对简单。例如,一些模型只用原始卷积提取局部表示,仅使用全局共享权重;另一些模型虽在窗口内使用注意力获取高频信息,但只使用特定于每个token的上下文感知权重。

CloFormer旨在同时利用共享权重和上下文感知权重的优势,更好地处理高频局部信息,所以设计了Clo block

2.2 原理

  • Clo block采用双分支结构,一个分支用于捕捉高频信息,另一个分支用于捕捉低频信息,然后将两个分支的输出融合,使模型能够同时感知高频和低频信息。

2.3 结构

2.3.1 局部分支(Local Branch)

采用精心设计的AttnConv算子

首先对输入进行线性变换得到QKV,然后对V使用深度可分离卷积(DWconv)进行局部特征聚合,其权重是全局共享的。接着对QK分别使用DWconv聚合局部信息,计算QK哈达玛积,并进行一系列线性或非线性变换生成在[-1, 1]范围内的上下文感知权重,最后用这些权重增强局部特征

在这里插入图片描述

2.3.2 全局分支(Global Branch)

  • KV进行下采样,然后执行标准的注意力过程($X{global }=Attntion\left(Q{g}, Pool\left(K{g}\right), Pool\left(V{g}\right)\right)$)来提取低频全局信息

在这里插入图片描述

2.4 优势

  • 更好的局部感知能力:与传统卷积相比,AttnConv利用上下文感知权重,能更好地适应输入内容进行局部感知;与局部自注意力相比,引入共享权重能更好地处理高频信息,且生成上下文感知权重的方法引入了更强的非线性,提高了性能。
  • 同时捕捉高低频信息双分支结构使模型能够同时捕捉高频和低频信息,这是现有很多轻量级模型所不具备的优势。

论文:https://arxiv.org/pdf/2303.17803
源码: https://github.com/qhfan/CloFormer

三、实现代码及RT-DETR修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/144103648

相关文章
|
机器学习/深度学习 编解码 文件存储
YOLOv5改进 | 融合改进篇 | BiFPN+ RepViT(教你如何融合改进机制)
YOLOv5改进 | 融合改进篇 | BiFPN+ RepViT(教你如何融合改进机制)
1788 1
|
11月前
|
计算机视觉
YOLOv11改进策略【SPPF】| AIFI : 基于Transformer的尺度内特征交互,在降低计算成本的同时提高模型的性能
本文探讨了基于AIFI模块的YOLOv11目标检测改进方法。AIFI是RT-DETR中高效混合编码器的一部分,通过在S5特征层上应用单尺度Transformer编码器,减少计算成本并增强概念实体间的联系,从而提升对象定位和识别效果。实验表明,AIFI使模型延迟降低35%,准确性提高0.4%。
1234 20
YOLOv11改进策略【SPPF】| AIFI : 基于Transformer的尺度内特征交互,在降低计算成本的同时提高模型的性能
|
10月前
|
机器学习/深度学习 数据可视化 算法
RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
702 5
|
10月前
|
计算机视觉 Perl
RT-DETR改进策略【卷积层】| CVPR-2024 PKI Module 获取多尺度纹理特征,适应尺度变化大的目标
RT-DETR改进策略【卷积层】| CVPR-2024 PKI Module 获取多尺度纹理特征,适应尺度变化大的目标
339 15
RT-DETR改进策略【卷积层】| CVPR-2024 PKI Module 获取多尺度纹理特征,适应尺度变化大的目标
|
10月前
|
机器学习/深度学习 编解码 计算机视觉
RT-DETR改进策略【注意力机制篇】| CVPR-2023 FSAS 基于频域的自注意力求解器 结合频域计算和卷积操作 降低噪声影响
RT-DETR改进策略【注意力机制篇】| CVPR-2023 FSAS 基于频域的自注意力求解器 结合频域计算和卷积操作 降低噪声影响
419 2
|
10月前
|
计算机视觉
RT-DETR改进策略【卷积层】| CVPR-2024 利用DynamicConv 动态卷积 结合ResNetLayer进行二次创新,提高精度
RT-DETR改进策略【卷积层】| CVPR-2024 利用DynamicConv 动态卷积 结合ResNetLayer进行二次创新,提高精度
351 9
|
10月前
|
机器学习/深度学习 计算机视觉
RT-DETR改进策略【损失函数篇】| WIoU v3:针对低质量样本的边界框回归损失函数
RT-DETR改进策略【损失函数篇】| WIoU v3:针对低质量样本的边界框回归损失函数
475 14
|
10月前
|
机器学习/深度学习 资源调度 计算机视觉
RT-DETR改进策略【Conv和Transformer】| CVPR-2022 Deformable Attention Transformer 可变形注意力 动态关注目标区域
RT-DETR改进策略【Conv和Transformer】| CVPR-2022 Deformable Attention Transformer 可变形注意力 动态关注目标区域
505 15
RT-DETR改进策略【Conv和Transformer】| CVPR-2022 Deformable Attention Transformer 可变形注意力 动态关注目标区域
|
10月前
|
机器学习/深度学习 计算机视觉 网络架构
RT-DETR改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
RT-DETR改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
762 12
RT-DETR改进策略【Backbone/主干网络】| CVPR 2024替换骨干网络为 UniRepLKNet,解决大核 ConvNets 难题
|
10月前
|
机器学习/深度学习 PyTorch TensorFlow
RT-DETR改进策略【卷积层】| SPD-Conv 针对小目标和低分辨率图像的检测任务
RT-DETR改进策略【卷积层】| SPD-Conv 针对小目标和低分辨率图像的检测任务
590 11
RT-DETR改进策略【卷积层】| SPD-Conv 针对小目标和低分辨率图像的检测任务