YOLOv11改进策略【Conv和Transformer】| ICCV-2023 iRMB 倒置残差移动块 轻量化的注意力模块

简介: YOLOv11改进策略【Conv和Transformer】| ICCV-2023 iRMB 倒置残差移动块 轻量化的注意力模块

一、本文介绍

本文记录的是利用iRMB模块优化YOLOv11的目标检测网络模型iRMB(Inverted Residual Mobile Block)的作用在于克服了常见模块无法同时吸收CNN 效率建模局部特征和利用Transformer 动态建模能力学习长距离交互的问题。相比一些复杂结构或多个混合模块的方法,能更好地权衡模型成本和精度。本文将其用于v11的模型改进和二次创新,更好地突出重要特征,提升模型性能。


专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、iRMB注意力介绍

Rethinking Mobile Block for Efficient Attention-based Models

2.1 设计出发点

  • 统一CNN和Transformer优势:从高效的Inverted Residual Block(IRB)和Transformer的有效组件出发,期望在基础设施设计层面整合两者优势,为注意力模型构建类似IRB的轻量级基础结构。
  • 解决现有模型问题:当前方法存在引入复杂结构或多个混合模块的问题,不利于应用优化。希望通过重新思考IRB和Transformer组件,构建简单有效的模块。

2.2 原理

  • 基于Meta Mobile Block(MMB)MMB是通过对MobileNetv2中的IRBTransformer中的核心MHSAFFN模块重新思考并归纳抽象得到的。它以参数化的扩展比率λ和高效算子F来实例化不同模块(如IRB、MHSA、FFN),揭示了这些模块的一致本质表达。

在这里插入图片描述

  • 遵循通用高效模型准则:设计遵循可用性(简单实现,不使用复杂算子,易于应用优化)、均匀性(核心模块少,降低模型复杂度,加速部署)、有效性(分类和密集预测性能好)、效率(参数和计算少,权衡精度)的准则。

2.3 结构

2.3.1 主要组成部分

从微观角度看,iRMBDepth - Wise Convolution(DW - Conv)改进的Expanded Window MHSA(EW - MHSA)组成。

2.3.2 具体操作流程

  • 首先,类似MMB的操作,使用扩展MLP($MLP{e}$)以输出/输入比等于λ来扩展通道维度,即$X{e}=MLP_{e}(X)\left(\in \mathbb{R}^{\lambda C × H × W}\right)$。
  • 然后,中间算子F进一步增强图像特征,这里F被建模为级联的MHSA卷积操作,即$F(\cdot)=Conv(MHSA(\cdot))$,具体采用DW - Conv和EW - MHSA的组合,其中EW - MHSA计算注意力矩阵的方式为$Q = K = X(\in \mathbb{R}^{C ×H ×W})$,而扩展值$x_{e}$用于$V(\in \mathbb{R}^{\lambda C ×H ×W})$。
  • 最后,使用收缩$MLP$($MLP{s}$)以倒置的输入/输出比等于λ来收缩通道维度,即$X{s}=MLP{s}\left(X{f}\right)\left(\in \mathbb{R}^{C × H × W}\right)$,并通过残差连接得到最终输出$Y = X + X_{s}(\in \mathbb{R}^{C ×H ×W})$。

在这里插入图片描述

2.4 优势

  • 吸收CNN和Transformer优点:既能吸收CNN的效率来建模局部特征,又能利用Transformer动态建模能力学习长距离交互
  • 降低模型成本
    • 通过采用高效的Window - MHSA(WMHSA)Depth - Wise Convolution(DW - Conv)并带有跳跃连接,权衡了模型成本和精度。
    • 设计灵活性高,如不同深度可采用不同设置,满足性能需求的同时保持结构简洁。
  • 性能优势
    • 在ImageNet - 1K数据集上进行图像分类实验,iRMB替换标准Transformer结构后,在相同训练设置下能以更少的参数和计算提高性能。
    • 在下游任务(如目标检测和语义分割)中,基于iRMB构建的EMO模型在多个基准测试中取得了非常有竞争力的结果,超过了当前的SoTA方法。

论文:https://arxiv.org/pdf/2301.01146.pdf
源码: https://github.com/zhangzjn/EMO

三、实现代码及YOLOv11修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/143327188

目录
相关文章
|
9月前
|
机器学习/深度学习 Ruby
YOLOv5改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
YOLOv5改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
416 0
|
9月前
|
机器学习/深度学习 Ruby
YOLOv8改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
YOLOv8改进 | 2023注意力篇 | iRMB倒置残差块注意力机制(轻量化注意力机制)
784 0
|
3天前
|
机器学习/深度学习 资源调度 计算机视觉
YOLOv11改进策略【Conv和Transformer】| CVPR-2022 Deformable Attention Transformer 可变形自注意力 动态关注目标区域
YOLOv11改进策略【Conv和Transformer】| CVPR-2022 Deformable Attention Transformer 可变形自注意力 动态关注目标区域
18 6
YOLOv11改进策略【Conv和Transformer】| CVPR-2022 Deformable Attention Transformer 可变形自注意力 动态关注目标区域
|
3天前
|
机器学习/深度学习 编解码 移动开发
YOLOv11改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
YOLOv11改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
15 7
YOLOv11改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
|
3天前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【卷积层】| 引入注意力卷积模块RFAConv,关注感受野空间特征 助力yolov11精度提升
YOLOv11改进策略【卷积层】| 引入注意力卷积模块RFAConv,关注感受野空间特征 助力yolov11精度提升
7 0
YOLOv11改进策略【卷积层】| 引入注意力卷积模块RFAConv,关注感受野空间特征 助力yolov11精度提升
|
3天前
|
机器学习/深度学习 TensorFlow 算法框架/工具
YOLOv11改进策略【卷积层】| 利用MobileNetv4中的UIB、ExtraDW优化C3k2
YOLOv11改进策略【卷积层】| 利用MobileNetv4中的UIB、ExtraDW优化C3k2
8 0
YOLOv11改进策略【卷积层】| 利用MobileNetv4中的UIB、ExtraDW优化C3k2
|
3月前
|
机器学习/深度学习 计算机视觉 Ruby
【YOLOv11改进 - 注意力机制】iRMB: 倒置残差移动块,即插即用的轻量注意力
【YOLOv11改进 - 注意力机制】iRMB: 倒置残差移动块,即插即用的轻量注意力本文提出了一种新的轻量级密集预测模型EMO,结合高效的倒置残差块(IRB)和Transformer组件,设计了单残差元移动块(MMB)和倒置残差移动块(iRMB)。EMO在ImageNet-1K、COCO2017和ADE20K基准上表现出色,参数、效率和准确度达到良好平衡,尤其在iPhone14上运行速度比EdgeNeXt快2.8-4.0倍。
【YOLOv11改进 - 注意力机制】iRMB: 倒置残差移动块,即插即用的轻量注意力
|
7月前
|
机器学习/深度学习 算法 测试技术
【YOLOv8改进 - 注意力机制】Focused Linear Attention :全新的聚焦线性注意力模块
YOLOv8专栏探讨了该目标检测算法的创新改进,包括使用聚焦线性注意力模块,解决了Transformer在视觉任务中的效率和表达力问题。该模块增强自注意力,提高焦点能力和特征多样性,保持线性复杂度。文章提供了实证证据证明其在多个基准上的性能提升,并在GitHub上发布了代码。论文和更多实战案例链接见文中。
|
7月前
|
机器学习/深度学习 测试技术 网络架构
【YOLOv10改进-注意力机制】MSCAAttention多尺度卷积注意力
YOLOv10专栏介绍了一种新的卷积网络架构SegNeXt,它在语义分割任务中展现出优于Transformer模型的效率和效果。SegNeXt通过名为Multi-Scale Convolutional Attention (MSCA)的组件,结合局部信息聚合、多尺度上下文捕获和通道关系模拟,提升了性能。在多个数据集上,SegNeXt以较少参数实现了超过现有SOTA的性能,特别是在Pascal VOC 2012上,以1/10的参数量达到90.6%的mIoU。YOLOv10引入了MSCA模块,用于增强目标检测的上下文关注。相关代码和配置详情可在链接中找到。
|
7月前
|
机器学习/深度学习 计算机视觉
【YOLOv10改进-注意力机制】 MSDA:多尺度空洞注意力 (论文笔记+引入代码)
YOLO目标检测专栏探讨了ViT的改进,提出DilateFormer,它结合多尺度扩张注意力(MSDA)来平衡计算效率和关注域大小。MSDA利用局部稀疏交互减少冗余,通过不同头部的扩张率捕获多尺度特征。DilateFormer在保持高性能的同时,计算成本降低70%,在ImageNet-1K、COCO和ADE20K任务上取得领先结果。YOLOv8引入了MultiDilatelocalAttention模块,用于实现膨胀注意力。更多详情及配置见相关链接。