一、本文介绍
本文记录的是基于蒙特卡罗注意力(MCAttn)模块的YOLOv11目标检测改进方法研究。利用蒙特卡罗注意力(MCAttn)模块
提高C3k2模块
的跨尺度特征提取能力,==使模型能够更好地传递和融合提取的多尺度特征,提高对小目标的关注度。==
专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!
二、MCAttn模块介绍
Exploiting Scale-Variant Attention for Segmenting Small Medical Objects
2.1 设计出发点
- 解决传统注意力机制的局限性:传统的深度学习注意力机制在处理医学图像时存在一些局限性。例如,一些方法如squeeze - excitation(SE)采用全局 - 平均池化来获取$1×1$输出张量,这种方式虽然有助于校准通道间的相互依赖关系,但在利用跨尺度相关性方面能力有限。对于医学图像中的小对象分割,需要一种能够更好地捕捉不同尺度信息的注意力机制。
- 适应医学图像小对象分割需求:医学图像中的小对象具有独特的挑战,它们不仅尺寸小,而且形态和位置信息难以准确把握。传统的注意力机制产生的固定维度注意力图往往不足以分析医学图像,因为它们可能忽略了背景中的丰富上下文信息以及小对象自身的多尺度特征。因此,需要设计一种专门针对医学小对象分割的注意力模块,能够更好地适应小对象的特点,提高分割的准确性。
2.2 MCAttn原理
2.2.1 基于随机采样的池化操作
MCAttn模块
使用一种基于随机采样的池化操作来生成尺度无关的注意力图。它从三个不同尺度($3×3$、$2×2$和$1×1$,即池化张量)中随机选择一个$1×1$注意力图。
2.2.2 注意力图的计算
给定一个输入张量$x$,MCAttn
的输出注意力图$A_{m}(x)$计算方式如下:
$A{m}(x)=\sum{i = 1}^{n}P_{1}(x,i)f(x,i)$,
其中$i$表示注意力图的输出大小,$f(x,i)$表示平均池化函数,$n$表示输出池化张量的数量(在本研究中设置为$3$)。这里的关联概率$P{1}(x,i)$满足条件$\sum{i = 1}^{n}P{1}(x,i)=1$且$\prod{i = 1}^{n}P_{1}(x,i)=0$,确保生成通用且可推广的注意力图。
2.3 特点
- 跨尺度信息捕捉:通过从三个不同尺度中随机选择注意力图,
MCAttn模块
能够捕捉到不同尺度的信息,增强了网络对小医学对象的识别能力。这种跨尺度的特性使得它能够更好地适应医学图像中不同大小和形态的小对象,弥补了传统注意力机制在这方面的不足。 - 提高对小对象的关注度:在实验中,与不使用
MCAttn模块
的情况相比,使用MCAttn
在MCBottleneck中能够增强对超小和小医学对象的形态和精确位置的辨别能力。 - 增强特征学习:
MCAttn模块
生成的注意力图能够更好地引导网络学习小对象的特征,提高了上下文特征学习的能力。它可以帮助网络更好地理解小对象与周围环境的关系,以及小对象自身在不同尺度下的特征变化,从而提高整个网络的分割性能。
论文:https://arxiv.org/abs/2407.07720
源码: https://github.com/anthonyweidai/SvANet
三、实现代码及YOLOv11修改步骤
模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址: