YOLOv11改进策略【卷积层】| 2024最新轻量级自适应提取模块 LAE 即插即用 保留局部信息和全局信息

简介: YOLOv11改进策略【卷积层】| 2024最新轻量级自适应提取模块 LAE 即插即用 保留局部信息和全局信息

一、本文介绍

本文记录的是利用轻量级自适应提取模块(LAE)模块优化YOLOv11的目标检测网络模型LAE (Lightweight Adaptive Extraction)减少参数和计算成本的同时,能够提取更丰富语义信息的特征,克服了传统卷积方法难以捕捉全局信息的问题,并能更好地提取ROI特征。本文将其应用v11中,改进主要模块,更好地突出重要特征,从而提升模型对物体检测的能力。


专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、轻量级自适应提取(LAE)模块介绍

2.1 设计出发点

  • 减少参数和计算成本:在多尺度特征提取中,相较于传统卷积方法,旨在降低参数数量和计算成本,同时提取具有更丰富语义信息的特征。
  • 保留局部信息:传统卷积过程中边缘和角落的像素信息易丢失,而这些局部信息在医学成像中对表示ROI目标和周围区域的隐含信息尤为重要。同时,特征图中相邻像素间存在信息差异,包含目标的像素信息熵高于相邻像素,所以希望在采样过程中保留信息含量高的像素。
  • 解决卷积局限性:考虑到卷积操作的局部性难以捕捉全局信息且计算复杂,参考了Focus的概念,但因Focus的切片操作计算成本高不符合轻量化处理目标,所以在此基础上进行改进。

2.2 原理

  • 通过设计两个共享参数的并行分支,采用组卷积的概念高效地将输入映射到输出维度,利用N组组卷积使参数数量相比传统卷积减少到1/N。
  • 每个LAE单元实现四倍下采样(高度和宽度都缩小为原来的1/2)。在采样过程中,为缓解边缘信息丢失问题,先将特征图的高度和宽度信息保存到通道中,使特征图维度从四维(batch, channel, height, weight)变为五维(batch, channel, height, weight, n),其中‘n’表示采样因子。
  • 自适应提取路径通过平均池化和卷积交换信息,对特征图按四个相邻像素(如左上角四个像素)重新组合进行下采样,其权重通过softmax表示,维度也变为五维。在‘n’维度上,自适应权重与另一分支相结合,这种方式可理解为在从高分辨率到低分辨率信息的转换过程中,在通道层面隐式包含了全局信息。

在这里插入图片描述

2.3 结构

  • 由两个并行分支构成,包括自适应提取路径和轻量化提取路径。
    • 自适应提取路径:通过平均池化和卷积交换信息,实现特征图按四个相邻像素重新组合下采样,并确定自适应权重。

在这里插入图片描述

  • 轻量化提取路径:利用1×1卷积、平均池化、重排操作、Softmax乘法等操作,高效地将输入映射到输出维度。

在这里插入图片描述

2.4 优势

  • 参数少且易使用:模块使用时无参数,便于即插即用式的迁移。
  • 保留信息丰富:能有效保留局部信息和在采样过程中隐式包含全局信息,从而提取出具有更丰富语义信息的特征。

论文:https://arxiv.org/pdf/2408.14087
源码:https://github.com/VincentYuuuuuu/LSM-YOLO

三、实现代码及YOLOv11修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/143333874

目录
相关文章
|
3天前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【模型轻量化】| 替换骨干网络为 MobileViTv1高效的信息编码与融合模块,获取局部和全局信息
YOLOv11改进策略【模型轻量化】| 替换骨干网络为 MobileViTv1高效的信息编码与融合模块,获取局部和全局信息
24 9
YOLOv11改进策略【模型轻量化】| 替换骨干网络为 MobileViTv1高效的信息编码与融合模块,获取局部和全局信息
|
15小时前
|
机器学习/深度学习 资源调度 Java
YOLOv11改进策略【注意力机制篇】| 2024 SCI TOP FCAttention 即插即用注意力模块,增强局部和全局特征信息交互
YOLOv11改进策略【注意力机制篇】| 2024 SCI TOP FCAttention 即插即用注意力模块,增强局部和全局特征信息交互
8 1
YOLOv11改进策略【注意力机制篇】| 2024 SCI TOP FCAttention 即插即用注意力模块,增强局部和全局特征信息交互
|
3天前
|
机器学习/深度学习 计算机视觉 知识图谱
YOLOv11改进策略【Conv和Transformer】| 上下文转换器CoT 结合静态和动态上下文信息的注意力机制 (含二次创新C3k2)
YOLOv11改进策略【Conv和Transformer】| 上下文转换器CoT 结合静态和动态上下文信息的注意力机制 (含二次创新C3k2)
27 10
YOLOv11改进策略【Conv和Transformer】| 上下文转换器CoT 结合静态和动态上下文信息的注意力机制 (含二次创新C3k2)
|
15小时前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
YOLOv11改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
8 1
YOLOv11改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
|
15小时前
|
机器学习/深度学习 计算机视觉 知识图谱
YOLOv11改进策略【注意力机制篇】| SENet V2 优化SE注意力机制,聚合通道和全局信息
YOLOv11改进策略【注意力机制篇】| SENet V2 优化SE注意力机制,聚合通道和全局信息
7 1
YOLOv11改进策略【注意力机制篇】| SENet V2 优化SE注意力机制,聚合通道和全局信息
|
15小时前
|
机器学习/深度学习 数据可视化 计算机视觉
YOLOv11改进策略【注意力机制篇】| 2024 SCSA-CBAM 空间和通道的协同注意模块
YOLOv11改进策略【注意力机制篇】| 2024 SCSA-CBAM 空间和通道的协同注意模块
9 2
YOLOv11改进策略【注意力机制篇】| 2024 SCSA-CBAM 空间和通道的协同注意模块
|
15小时前
|
机器学习/深度学习 编解码 计算机视觉
YOLOv11改进策略【注意力机制篇】| Mixed Local Channel Attention (MLCA) 同时融合通道、空间、局部信息和全局信息的新型注意力
YOLOv11改进策略【注意力机制篇】| Mixed Local Channel Attention (MLCA) 同时融合通道、空间、局部信息和全局信息的新型注意力
8 1
YOLOv11改进策略【注意力机制篇】| Mixed Local Channel Attention (MLCA) 同时融合通道、空间、局部信息和全局信息的新型注意力
|
15小时前
|
机器学习/深度学习 资源调度 数据可视化
YOLOv11改进策略【注意力机制篇】| 引入Shuffle Attention注意力模块,增强特征图的语义表示
YOLOv11改进策略【注意力机制篇】| 引入Shuffle Attention注意力模块,增强特征图的语义表示
11 1
YOLOv11改进策略【注意力机制篇】| 引入Shuffle Attention注意力模块,增强特征图的语义表示
|
14小时前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【Head】| AFPN渐进式自适应特征金字塔,增加针对小目标的检测头(附模块详解和完整配置步骤)
YOLOv11改进策略【Head】| AFPN渐进式自适应特征金字塔,增加针对小目标的检测头(附模块详解和完整配置步骤)
24 12
YOLOv11改进策略【Head】| AFPN渐进式自适应特征金字塔,增加针对小目标的检测头(附模块详解和完整配置步骤)
|
14小时前
|
计算机视觉
YOLOv11改进策略【Neck】| 替换RT-DETR中的CCFF跨尺度特征融合颈部结构,优化计算瓶颈与冗余问题
YOLOv11改进策略【Neck】| 替换RT-DETR中的CCFF跨尺度特征融合颈部结构,优化计算瓶颈与冗余问题
18 8
YOLOv11改进策略【Neck】| 替换RT-DETR中的CCFF跨尺度特征融合颈部结构,优化计算瓶颈与冗余问题