YOLOv11改进策略【模型轻量化】| GhostNetV2:利用远距离注意力增强廉价操作

简介: YOLOv11改进策略【模型轻量化】| GhostNetV2:利用远距离注意力增强廉价操作

一、本文介绍

本文记录的是基于GhostNet V2的YOLOv11目标检测轻量化改进方法研究在目前的研究中,基于轻量级卷积神经网络在建模长距离依赖方面的不足,引入自注意力机制虽能捕获全局信息,但在实际速度方面存在较大阻碍GhostNet V2提出了一种硬件友好的注意力机制(DFC attention),并基于此构建GhostNet V2。==本文利用其中的模块重新设计YOLOv11的骨干网络,使模型在降低模型大小的同时,赋予模型各阶段更大的感受野,提高模型性能。==

模型 参数量 计算量 推理速度
YOLOv11m 20.0M 67.6GFLOPs 3.5ms
Improved 19.0M 47.2GFLOPs 2.5ms

专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、GhostNet V2设计原理

GhostNet V2是为移动应用设计的一种新的轻量级视觉骨干网络,其设计出发点、模型结构及优势如下:

2.1 设计出发点

  • 基于轻量级卷积神经网络在建模长距离依赖方面的不足,引入自注意力机制虽能捕获全局信息,但在实际速度方面存在较大阻碍。
  • 为解决这些问题,提出了一种硬件友好的注意力机制(DFC attention),并基于此构建GhostNet V2。

    2.2 模型结构

  • 增强Ghost模块Ghost模块中只有一半的特征与其他像素交互,损害了其捕获空间信息的能力。因此,使用DFC attention来增强Ghost模块的输出特征Y,以捕获不同空间像素之间的长距离依赖。
    • 输入特征X被送入两个分支,一个是Ghost模块产生输出特征Y,另一个是DFC模块生成注意力图A。
    • 通过1×1卷积将模块的输入X转换为DFC的输入Z。
    • 模块的最终输出O是两个分支输出的乘积,即O = Sigmoid(A) ⊙ V(X)。
  • 特征下采样:直接将DFC attention与Ghost模块并行会引入额外的计算成本,因此通过对特征进行水平和垂直下采样来减小特征的大小,使DFC attention中的所有操作都在较小的特征上进行,然后再将特征图上采样到原始大小以匹配Ghost分支的特征大小。
  • GhostV2 bottleneckGhostNet采用包含两个Ghost模块的倒置残差瓶颈结构,第一个模块产生具有更多通道的扩展特征,第二个模块减少通道数以获得输出特征。通过研究发现增强“表达能力”更有效,因此只将扩展特征与DFC attention相乘。DFC attention分支与第一个Ghost模块并行以增强扩展特征,然后增强的特征被发送到第二个Ghost模块以产生输出特征。

在这里插入图片描述

在这里插入图片描述

2.3 优势

  • 性能提升:在ImageNet数据集上,GhostNet V2以更低的计算成本实现了比GhostNet V1更高的性能,例如,GhostNet V2以167M FLOPs实现了75.3%的top - 1准确率,显著优于GhostNet V1的74.5%。
  • 下游任务有效性:在对象检测和语义分割等下游任务中,捕获长距离依赖至关重要,DFC attention可以有效地赋予Ghost模块更大的感受野,从而构建更强大和高效的模块。

论文:https://arxiv.org/abs/2211.12905
源码:https://github.com/huawei-noah/Efficient-AI-Backbones/tree/master/ghostnetv2_pytorch

三、实现代码及YOLOv11修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/142887255

目录
相关文章
|
9月前
|
机器学习/深度学习 存储 算法
【轻量化网络】概述网络进行轻量化处理中的:剪枝、蒸馏、量化
【轻量化网络】概述网络进行轻量化处理中的:剪枝、蒸馏、量化
312 0
|
3天前
|
机器学习/深度学习 编解码 自动驾驶
YOLOv11改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
YOLOv11改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
32 16
YOLOv11改进策略【模型轻量化】| 替换骨干网络为MoblieNetV1,用于移动视觉应用的高效卷积神经网络
|
3天前
|
机器学习/深度学习 编解码 TensorFlow
YOLOv11改进策略【模型轻量化】| 替换骨干网络为EfficientNet v1 高效的移动倒置瓶颈结构
YOLOv11改进策略【模型轻量化】| 替换骨干网络为EfficientNet v1 高效的移动倒置瓶颈结构
29 14
YOLOv11改进策略【模型轻量化】| 替换骨干网络为EfficientNet v1 高效的移动倒置瓶颈结构
|
14小时前
|
机器学习/深度学习
YOLOv11改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
YOLOv11改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
14 8
YOLOv11改进策略【Neck】| GSConv+Slim Neck:混合深度可分离卷积和标准卷积的轻量化网络设计
|
3天前
|
机器学习/深度学习 计算机视觉 网络架构
YOLOv11改进策略【模型轻量化】| 替换骨干网络 CVPR-2024 StarNet,超级精简高效的轻量化模块
YOLOv11改进策略【模型轻量化】| 替换骨干网络 CVPR-2024 StarNet,超级精简高效的轻量化模块
31 19
|
3天前
|
Shell 网络架构 计算机视觉
YOLOv11改进策略【模型轻量化】| ShufflenetV2,通过通道划分构建高效网络
YOLOv11改进策略【模型轻量化】| ShufflenetV2,通过通道划分构建高效网络
29 14
|
15小时前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【注意力机制篇】| ICCV2023 聚焦线性注意力模块 Focused Linear Attention 聚焦能力与特征多样性双重提升,含二次创新
YOLOv11改进策略【注意力机制篇】| ICCV2023 聚焦线性注意力模块 Focused Linear Attention 聚焦能力与特征多样性双重提升,含二次创新
7 1
|
14小时前
|
计算机视觉
YOLOv11改进策略【SPPF】| AIFI : 基于Transformer的尺度内特征交互,在降低计算成本的同时提高模型的性能
YOLOv11改进策略【SPPF】| AIFI : 基于Transformer的尺度内特征交互,在降低计算成本的同时提高模型的性能
15 9
YOLOv11改进策略【SPPF】| AIFI : 基于Transformer的尺度内特征交互,在降低计算成本的同时提高模型的性能
|
14小时前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【Neck】| 2023 显式视觉中心EVC 优化特征提取金字塔,对密集预测任务非常有效
YOLOv11改进策略【Neck】| 2023 显式视觉中心EVC 优化特征提取金字塔,对密集预测任务非常有效
16 8
|
3月前
|
机器学习/深度学习 PyTorch API
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本
Transformer架构自2017年被Vaswani等人提出以来,凭借其核心的注意力机制,已成为AI领域的重大突破。该机制允许模型根据任务需求灵活聚焦于输入的不同部分,极大地增强了对复杂语言和结构的理解能力。起初主要应用于自然语言处理,Transformer迅速扩展至语音识别、计算机视觉等多领域,展现出强大的跨学科应用潜力。然而,随着模型规模的增长,注意力层的高计算复杂度成为发展瓶颈。为此,本文探讨了在PyTorch生态系统中优化注意力层的各种技术,
131 6
优化注意力层提升 Transformer 模型效率:通过改进注意力机制降低机器学习成本