YOLOv11改进策略【注意力机制篇】| SENet V2 优化SE注意力机制,聚合通道和全局信息

本文涉及的产品
函数计算FC,每月15万CU 3个月
简介: YOLOv11改进策略【注意力机制篇】| SENet V2 优化SE注意力机制,聚合通道和全局信息

一、本文介绍

本文记录的是利用SENet V2 模块模块优化YOLOv11的目标检测网络模型SENet V2V1的基础上引入多分支密集层,同时包含了通道信息和全局信息,克服了传统卷积神经网络在全局表示学习不足以及V1本身可优化空间的问题。本文将其加入到YOLOv11的不同位置中,并进行二次创新,充分发挥SE V2模块的性能。


专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、SENet V2介绍

SENetV2: Aggregated dense layer for channelwise and global representations

1. 模块设计出发点

  • 现有技术的局限性
    • CNN的空间学习优势与全局学习不足:卷积神经网络(CNNs)在学习局部感受野内的空间相关性方面表现出色,但在学习全局表示方面相对不足。例如在图像分类任务中,虽然能提取局部特征,但对于整体的图像类别特征把握可能不够全面。
    • SENet的改进空间SENet通过挤压激励操作增强了通道表示,但仍有可优化之处。
      • 借鉴其他成功架构的思路
    • Inception模块的多分支卷积优势Inception模块采用多分支卷积,不同分支使用不同尺寸的滤波器,最后拼接,能在降低理论复杂度的同时提高性能。这种多分支结构启发了新模块设计,使其能够更好地学习不同尺度的特征。
    • ResNeXt的聚合模块思想ResNeXt引入了聚合残差模块和“基数”概念,减少了理论复杂度并提升了性能。这为新模块在结构设计和优化上提供了参考,以更好地整合信息和提高效率。

2. 原理

  • 通道信息的处理
    • 挤压操作(Squeeze):输入经过卷积层后,进入全局平均池化层生成通道方向的输入,再进入具有缩减尺寸的全连接(FC)层进行挤压操作。该操作通过全连接层对通道信息进行重新整合和筛选,提取关键特征。
    • 激励操作(Excitation):挤压后的信息进入激励组件,激励组件包含一个不进行缩减的FC层,恢复输入的原始形式,然后通过缩放操作与特征图进行通道方向的乘法,最后重新缩放恢复原始形状。这一步骤能够增强重要通道的信息,抑制不重要的通道信息。

在这里插入图片描述

  • 全局与局部信息的融合
    • 多分支密集层的引入:在挤压操作中引入多分支密集层,将聚合层连接起来并传递给FC层。这种结构使得模块能够学习到更广泛的全局表示,同时与通道表示相结合,实现全局与局部信息的融合。
    • 核心特征与激励层的交互:通过选择合适的基数(如4),使模块能够在不增加不必要复杂度和模型参数的情况下,让核心特征与激励层有效交互,更好地学习全局表示并保留高效的结构。

3. 结构

  • 与现有模块的对比
    • 聚合残差模块(ResNeXt)ResNeXt聚合残差模块通过分支卷积直接连接输入,数学公式为$Resne X t=x+\sum F(x)$。而新模块在此基础上进行了改进,更加注重通道信息的处理和全局表示的学习。
    • 挤压和激励模块(SENet)SENet挤压激励操作公式为$S E n e t=x+F(x \cdot E x(S q(x)))$,新模块在其基础上引入了多分支密集层和新的操作方式,如公式$S E n e t V 2=x+F\left(x \cdot E x\left(\sum S q(x)\right)\right)$所示。
      • 自身结构特点
    • 多分支FC层:类似于ResNeXt的方法,引入相同大小的多分支FC层,增加了层间的基数,优化了信息传递。
    • 分层处理流程:包括挤压层在激励前传递关键特征,然后经过一系列操作恢复原始形式,最后将处理后的信息与输入在残差模块中连接,形成一个完整的分层处理流程。

在这里插入图片描述

ResNeXt, SENet和SENetV2模块之间的比较

4. 优势

  • 性能提升
    • 实验验证:在CIFAR-10、CIFAR-100和定制版ImageNet等数据集上进行实验,与ResNet、SENet等现有架构相比,SENetV2在分类准确率上有显著提高。例如在CIFAR-10数据集上,Resnet准确率为77.38,SE Resnet为77.79,而SE ResnetV2达到了78.60。
    • 特征表示增强:通过更好地融合通道表示和全局表示,增强了网络对图像特征的提取能力,从而提高了分类性能。
  • 复杂度控制
    • 参数增加可接受:虽然模型参数相比SENet有少量增加,但增加幅度较小。例如在CIFAR-100数据集上,Resnet参数为23.62M,SE Resnet为24.90M,SE ResnetV2为28.67M,增加的参数换来的是性能的提升,在实际应用中是可接受的。
    • 结构优化:通过合理选择基数和引入多分支结构,在不增加过多复杂度的情况下提升了性能,保持了模型结构的高效性。

论文:https://arxiv.org/pdf/2311.10807
源码:https://github.com/mahendran-narayanan/SENetV2-Aggregated-dense-layer-for-channelwise-and-global-representations

三、实现代码及YOLOv11修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/143326932

相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
目录
相关文章
|
12小时前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
YOLOv11改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
8 1
YOLOv11改进策略【注意力机制篇】| GAM全局注意力机制: 保留信息以增强通道与空间的相互作用
|
7月前
|
机器学习/深度学习 计算机视觉
【YOLOv8改进 - 注意力机制】DoubleAttention: 双重注意力机制,全局特征聚合和分配
YOLOv8专栏探讨了该目标检测模型的创新改进,如双重注意力块,它通过全局特征聚合和分配提升效率。该机制集成在ResNet-50中,在ImageNet上表现优于ResNet-152。文章提供了论文、代码链接及核心代码示例。更多实战案例与详细配置见相关CSDN博客链接。
|
12小时前
|
机器学习/深度学习 编解码 计算机视觉
YOLOv11改进策略【注意力机制篇】| Mixed Local Channel Attention (MLCA) 同时融合通道、空间、局部信息和全局信息的新型注意力
YOLOv11改进策略【注意力机制篇】| Mixed Local Channel Attention (MLCA) 同时融合通道、空间、局部信息和全局信息的新型注意力
8 1
YOLOv11改进策略【注意力机制篇】| Mixed Local Channel Attention (MLCA) 同时融合通道、空间、局部信息和全局信息的新型注意力
|
3天前
|
计算机视觉
YOLOv11改进策略【卷积层】| 2024最新轻量级自适应提取模块 LAE 即插即用 保留局部信息和全局信息
YOLOv11改进策略【卷积层】| 2024最新轻量级自适应提取模块 LAE 即插即用 保留局部信息和全局信息
7 0
YOLOv11改进策略【卷积层】| 2024最新轻量级自适应提取模块 LAE 即插即用 保留局部信息和全局信息
|
3月前
|
机器学习/深度学习 计算机视觉
【YOLOv11改进 - 注意力机制】GAM(Global Attention Mechanism):全局注意力机制,减少信息损失并放大全局维度交互特征
【YOLOv11改进 - 注意力机制】GAM(Global Attention Mechanism):全局注意力机制,减少信息损失并放大全局维度交互特征本文提出了一种全局注意力机制,通过保留通道和空间信息,增强跨维度的交互,减少信息损失。该机制结合3D置换与多层感知器用于通道注意力,卷积空间注意力子模块用于空间注意力。实验结果表明,在CIFAR-100和ImageNet-1K数据集上,该方法在ResNet和MobileNet上优于多种最新注意力机制。
【YOLOv11改进 - 注意力机制】GAM(Global Attention Mechanism):全局注意力机制,减少信息损失并放大全局维度交互特征
|
7月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【YOLOv8改进 - 注意力机制】GAM(Global Attention Mechanism):全局注意力机制,减少信息损失并放大全局维度交互特征
YOLO目标检测专栏探讨了模型创新,如注意力机制,聚焦通道和空间信息的全局注意力模组(GAM),提升DNN性能。GAM在ResNet和MobileNet上优于最新方法。论文及PyTorch代码可在给出的链接找到。核心代码展示了GAM的构建,包含线性层、卷积和Sigmoid激活,用于生成注意力图。更多配置详情参阅相关博客文章。
【YOLOv8改进 - 注意力机制】GAM(Global Attention Mechanism):全局注意力机制,减少信息损失并放大全局维度交互特征
|
12小时前
|
机器学习/深度学习 资源调度 Java
YOLOv11改进策略【注意力机制篇】| 2024 SCI TOP FCAttention 即插即用注意力模块,增强局部和全局特征信息交互
YOLOv11改进策略【注意力机制篇】| 2024 SCI TOP FCAttention 即插即用注意力模块,增强局部和全局特征信息交互
8 1
YOLOv11改进策略【注意力机制篇】| 2024 SCI TOP FCAttention 即插即用注意力模块,增强局部和全局特征信息交互
|
7月前
|
机器学习/深度学习 计算机视觉
【YOLOv8改进 - 注意力机制】SENetV2: 用于通道和全局表示的聚合稠密层,结合SE模块和密集层来增强特征表示
【YOLOv8改进 - 注意力机制】SENetV2: 用于通道和全局表示的聚合稠密层,结合SE模块和密集层来增强特征表示
|
12小时前
|
机器学习/深度学习 数据可视化 计算机视觉
YOLOv11改进策略【注意力机制篇】| 2024 SCSA-CBAM 空间和通道的协同注意模块
YOLOv11改进策略【注意力机制篇】| 2024 SCSA-CBAM 空间和通道的协同注意模块
9 2
YOLOv11改进策略【注意力机制篇】| 2024 SCSA-CBAM 空间和通道的协同注意模块
|
12小时前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【注意力机制篇】| WACV-2021 Triplet Attention 三重注意力模块 - 跨维度交互注意力机制优化
YOLOv11改进策略【注意力机制篇】| WACV-2021 Triplet Attention 三重注意力模块 - 跨维度交互注意力机制优化
6 1
YOLOv11改进策略【注意力机制篇】| WACV-2021 Triplet Attention 三重注意力模块 - 跨维度交互注意力机制优化