YOLOv11改进策略【注意力机制篇】| Large Separable Kernel Attention (LSKA) 大核可分离卷积注意力 二次创新C2PSA、C3k2

简介: YOLOv11改进策略【注意力机制篇】| Large Separable Kernel Attention (LSKA) 大核可分离卷积注意力 二次创新C2PSA、C3k2

一、本文介绍

本文记录的是利用LSKA 大核可分离卷积注意力模块优化YOLOv11的目标检测网络模型LSKA结合了大卷积核的广阔感受野可分离卷积的高效性,不仅降低计算复杂度和内存占用,而且提高了模型对不同卷积核大小的适应性。本文将其应用到v11中,利用LSKA提高模型对不同尺度目标的检测能力。


专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、LSKA介绍

2.1 设计出发点

  • 在视觉注意力网络(VAN)中,大核注意力(LKA)模块虽在视觉任务中表现出色,但深度卷积层随卷积核增大,计算和内存消耗呈二次增长。为解决此问题,使VAN的注意力模块能使用极大卷积核,提出了LSKA模块

2.2 原理

  • LSKA深度卷积层2D卷积核分解为级联的水平和垂直1D卷积核。通过这种分解方式,能在注意力模块中直接使用大核的深度卷积层,无需额外模块,且相比标准LKA设计,能降低计算复杂度和内存占用

2.3 结构

2.3.1 基本LKA模块(不使用扩张深度卷积)

  • 输入特征图$F \in \mathbb{R}^{C ×H ×W}$,设计LKA的简单方式是在2D深度卷积中使用大卷积核,计算公式:$$Z^{C}=\sum_{H, W} W_{k × k}^{C} * F^{C}$$$$A^{C}=W_{1 × 1} * Z^{C}$$$$F^{C}=A^{C} \otimes F^{C}$$这里$Z^{C}$是深度卷积输出,$A^{C}$是注意力图,$\otimes$是哈达玛积此结构中深度卷积计算成本随核增大呈二次增长。

    2.3.2 原始LKA模块(VAN 中)

  • 为缓解上述问题,原始LKA模块将大核深度卷积分解为小核深度卷积扩张的大核深度卷积,计算公式:$$\overline{Z}^{C}=\sum_{H, W} W_{(2 d-1) \times(2 d-1)}^{C} * F^{C}$$$$Z^{C}=\sum_{H, W} W_{\left[\frac{k}{d}\right] \times\left[\frac{k}{d}\right]}^{C} * \overline{Z}^{C}$$$$A^{C}=W_{1 × 1} * Z^{C}$$$$\overline{F}^{C}=A^{C} \otimes F^{C}$$

    2.3.3 LSKA模块

  • 图d所示,将LKA的前两层分解为四层,每层LKA两个1D卷积层组成。输出计算如公式:$$\overline{Z}^{C}=\sum_{H, W} W_{(2 d-1) × 1}^{C} *\left(\sum_{H, W} W_{1 \times(2 d-1)}^{C} * F^{C}\right)$$$$Z^{C}=\sum_{H, W} W_{\left[\frac{k}{d}\right] × 1}^{C} *\left(\sum_{H, W} W_{1 \times\left[\frac{k}{d}\right]}^{C} * \overline{Z}^{C}\right)$$$$A^{C}=W_{1 × 1} * Z^{C}$$$$\overline{F}^{C}=A^{C} \otimes F^{C}$$

在这里插入图片描述

2.4 优势

  • 计算复杂度和内存占用方面
    • 从图可知,相比LKA - trivialLKALSKA - trivialLSKA显著降低了VAN的计算复杂度。通过分析FLOPs参数计算公式,LSKA深度卷积层扩张深度卷积层都能节省参数,计算更有效。
      在这里插入图片描述
  • 性能方面
    • 长程依赖捕捉:通过有效感受野(ERF)生成方法验证,如图4所示,从核大小765LSKA方法能有效捕捉图像长程依赖。
    • 空间和通道适应性:继承LKA设计,包含空间和通道注意力特性,且采用级联水平和垂直内核进一步降低内存和计算复杂度。
    • 对大核的可扩展性:在VAN中,LKA - trivial随核增大计算成本二次增长,LKA虽降低但核超$23×23$时参数增长。而LSKA - trivial和LSKA不仅降低计算成本,还能保持模型参数相对稳定,且随核增大从2353LSKA - Base在参数大小、GFLOPs和精度上都表现出可扩展性。

论文:https://arxiv.org/pdf/2309.01439
源码: https://github.com/StevenLauHKHK/Large-Separable-Kernel-Attention

三、实现代码及YOLOv11修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/143445804

目录
相关文章
|
3天前
|
机器学习/深度学习 编解码 移动开发
YOLOv11改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
YOLOv11改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
15 7
YOLOv11改进策略【Conv和Transformer】| TPAMI-2024 Conv2Former 利用卷积调制操作和大核卷积简化自注意力机制,提高网络性能
|
12小时前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【注意力机制篇】| 添加SE、CBAM、ECA、CA、Swin Transformer等注意力和多头注意力机制
YOLOv11改进策略【注意力机制篇】| 添加SE、CBAM、ECA、CA、Swin Transformer等注意力和多头注意力机制
9 2
YOLOv11改进策略【注意力机制篇】| 添加SE、CBAM、ECA、CA、Swin Transformer等注意力和多头注意力机制
|
3天前
|
机器学习/深度学习 测试技术 计算机视觉
YOLOv11改进策略【Conv和Transformer】| ICCV-2023 iRMB 倒置残差移动块 轻量化的注意力模块
YOLOv11改进策略【Conv和Transformer】| ICCV-2023 iRMB 倒置残差移动块 轻量化的注意力模块
16 7
YOLOv11改进策略【Conv和Transformer】| ICCV-2023 iRMB 倒置残差移动块 轻量化的注意力模块
|
12小时前
|
机器学习/深度学习 资源调度 计算机视觉
YOLOv11改进策略【注意力机制篇】| NAM注意力 即插即用模块,重新优化通道和空间注意力
YOLOv11改进策略【注意力机制篇】| NAM注意力 即插即用模块,重新优化通道和空间注意力
9 2
YOLOv11改进策略【注意力机制篇】| NAM注意力 即插即用模块,重新优化通道和空间注意力
|
12小时前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【注意力机制篇】| ICLR2023 高效计算与全局局部信息融合的 Sea_Attention 模块(含C2PSA二次创新)
YOLOv11改进策略【注意力机制篇】| ICLR2023 高效计算与全局局部信息融合的 Sea_Attention 模块(含C2PSA二次创新)
7 2
YOLOv11改进策略【注意力机制篇】| ICLR2023 高效计算与全局局部信息融合的 Sea_Attention 模块(含C2PSA二次创新)
|
3天前
|
计算机视觉
YOLOv11改进策略【卷积层】| ICCV-2023 引入Dynamic Snake Convolution动态蛇形卷积,改进C3k2
YOLOv11改进策略【卷积层】| ICCV-2023 引入Dynamic Snake Convolution动态蛇形卷积,改进C3k2
10 0
YOLOv11改进策略【卷积层】| ICCV-2023 引入Dynamic Snake Convolution动态蛇形卷积,改进C3k2
|
7月前
|
机器学习/深度学习 Serverless 计算机视觉
【YOLOv8改进 - 注意力机制】Sea_Attention: Squeeze-enhanced Axial Attention,结合全局语义提取和局部细节增强
【YOLOv8改进 - 注意力机制】Sea_Attention: Squeeze-enhanced Axial Attention,结合全局语义提取和局部细节增强
|
3月前
|
机器学习/深度学习 测试技术 计算机视觉
【YOLOv11改进 - 注意力机制】LSKA(Large Separable Kernel Attention):大核分离卷积注意力模块
【YOLOv11改进 - 注意力机制】LSKA(Large Separable Kernel Attention):大核分离卷积注意力模块
【YOLOv11改进 - 注意力机制】LSKA(Large Separable Kernel Attention):大核分离卷积注意力模块
|
7月前
|
机器学习/深度学习 编解码 测试技术
【YOLOv10改进-注意力机制】LSKNet(Large Selective Kernel Network ):空间选择注意力
YOLOv10专栏聚焦遥感目标检测,提出LSKNet,首个探索大型选择性核的模型。LSKNet利用LSKblock Attention动态调整感受野,处理不同目标的上下文。创新点还包括极化滤波和增强技术,提升信息保留和非线性输出。在HRSC2016等遥感基准上取得SOTA性能。LSKNet代码展示其网络结构,包括多阶段模块和注意力机制。详细配置和任务说明见相关链接。
|
3月前
|
机器学习/深度学习 计算机视觉 Python
【YOLOv11改进 - 注意力机制】EMA(Efficient Multi-Scale Attention):基于跨空间学习的高效多尺度注意力
【YOLOv11改进 - 注意力机制】EMA(Efficient Multi-Scale Attention):基于跨空间学习的高效多尺度注意力.EMA(Efficient Multi-Scale Attention)模块是一种高效多尺度注意力机制,旨在提高计算机视觉任务中的特征表示效果。该模块通过结合通道和空间信息、采用多尺度并行子网络结构以及优化坐标注意力机制,实现了更高效和有效的特征表示。EMA模块在图像分类和目标检测任务中表现出色,使用CIFAR-100、ImageNet-1k、MS COCO和VisDrone2019等数据集进行了广泛测试。
【YOLOv11改进 - 注意力机制】EMA(Efficient Multi-Scale Attention):基于跨空间学习的高效多尺度注意力