YOLOv11改进策略【卷积层】| ECCV-2024 小波卷积WTConv 增大感受野,降低参数量计算量,独家创新助力涨点

简介: YOLOv11改进策略【卷积层】| ECCV-2024 小波卷积WTConv 增大感受野,降低参数量计算量,独家创新助力涨点

一、本文介绍

本文记录的是利用小波卷积WTConv模块优化YOLOv11的目标检测网络模型WTConv的目的是在不出现过参数化的情况下有效地增加卷积的感受野,从而解决了CNN在感受野扩展中的参数膨胀问题。本文将其加入到深度可分离卷积中,有效降低模型参数量和计算量,并二次创新C3k2,==使模块更好地捕捉低频特征,增强网络性能。==


专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、小波卷积WTConv介绍

Wavelet Convolutions for Large Receptive Fields

2.1 出发点

  • 解决卷积核增大的问题:在卷积神经网络(CNNs)中,为了模仿视觉Transformer(ViTs)自注意力块的全局感受野,尝试增加卷积核大小,但这种方法在达到全局感受野之前就遇到了上限并饱和,且会导致过参数化。
  • 利用信号处理工具:思考能否利用信号处理工具在不出现过参数化的情况下有效地增加卷积的感受野,从而提出利用小波变换(Wavelet Transform,WT)来解决该问题。

在这里插入图片描述

2.2 原理

2.2.1 基于小波变换的卷积操作

  • 小波变换的卷积表示:采用Haar小波变换(Haar WT),它在一个空间维度(宽度或高度)上的一级变换可通过特定的深度卷积核和下采样操作实现。例如,在2D情况下,使用一组特定的四个滤波器进行深度卷积操作,这些滤波器包括一个低通滤波器$f{LL}$和三个高通滤波器$f{LH}$、$f{HL}$、$f{HH}$。
  • 逆小波变换:由于这些滤波器构成正交基,逆小波变换可通过转置卷积实现。
  • 级联小波分解:通过递归地分解低频分量来实现,每一级分解都会增加频率分辨率并降低低频的空间分辨率。

    2.2.2 小波域的卷积操作

  • 分离频率分量卷积:首先使用WT对输入的低频和高频内容进行滤波和降尺度,然后在不同的频率映射上进行小核深度卷积,最后使用逆WT构建输出。这个过程不仅分离了频率分量之间的卷积,还允许较小的核在原始输入的较大区域上操作,从而增加了感受野。
  • 多级别操作:采用级联原则,对每一级的低频分量进行WT分解,然后进行卷积操作,最后将不同频率的输出进行组合。组合时利用WT和其逆是线性操作的性质,将各级卷积的结果求和。

在这里插入图片描述

2.3 结构

  • 作为深度卷积的替代层WTConv被设计为可以直接替换深度卷积层,能够在任何给定的CNN架构中使用,无需额外修改。

2.4 优势

  • 参数增长缓慢:对于$k×k$的感受野,其可训练参数的数量仅与$k$成对数增长,相比一些最近的方法(参数增长为二次方),能够在不出现过参数化的情况下获得非常大的感受野。
  • 更好地捕捉低频:通过对输入低频分量的重复WT分解,强调了低频信息,使得WTConv层能够比标准卷积更好地捕捉低频,这与已知的卷积层通常对高频响应的情况形成补充。

论文:https://arxiv.org/pdf/2407.05848
源码:https://github.com/BGU-CS-VIL/WTConv

三、实现代码及YOLOv11修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/143051775

目录
相关文章
|
15小时前
|
机器学习/深度学习 编解码 计算机视觉
YOLOv11改进策略【注意力机制篇】| CVPR-2023 FSAS 基于频域的自注意力求解器 结合频域计算和卷积操作 降低噪声影响
YOLOv11改进策略【注意力机制篇】| CVPR-2023 FSAS 基于频域的自注意力求解器 结合频域计算和卷积操作 降低噪声影响
7 1
YOLOv11改进策略【注意力机制篇】| CVPR-2023 FSAS 基于频域的自注意力求解器 结合频域计算和卷积操作 降低噪声影响
|
15小时前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【注意力机制篇】| ICCV2023 聚焦线性注意力模块 Focused Linear Attention 聚焦能力与特征多样性双重提升,含二次创新
YOLOv11改进策略【注意力机制篇】| ICCV2023 聚焦线性注意力模块 Focused Linear Attention 聚焦能力与特征多样性双重提升,含二次创新
7 1
|
3天前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【卷积层】| 引入注意力卷积模块RFAConv,关注感受野空间特征 助力yolov11精度提升
YOLOv11改进策略【卷积层】| 引入注意力卷积模块RFAConv,关注感受野空间特征 助力yolov11精度提升
7 0
YOLOv11改进策略【卷积层】| 引入注意力卷积模块RFAConv,关注感受野空间特征 助力yolov11精度提升
|
3天前
|
机器学习/深度学习 编解码 计算机视觉
YOLOv11改进策略【卷积层】| ICCV-2023 SAFM 空间自适应特征调制模块 对C3k2进行二次创新
YOLOv11改进策略【卷积层】| ICCV-2023 SAFM 空间自适应特征调制模块 对C3k2进行二次创新
10 0
YOLOv11改进策略【卷积层】| ICCV-2023 SAFM 空间自适应特征调制模块 对C3k2进行二次创新
|
3天前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【卷积层】| CVPR-2023 SCConv 空间和通道重建卷积:即插即用,减少冗余计算并提升特征学习
YOLOv11改进策略【卷积层】| CVPR-2023 SCConv 空间和通道重建卷积:即插即用,减少冗余计算并提升特征学习
4 0
YOLOv11改进策略【卷积层】| CVPR-2023 SCConv 空间和通道重建卷积:即插即用,减少冗余计算并提升特征学习
|
3天前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【卷积层】| CVPR-2023 部分卷积 PConv 轻量化卷积,降低内存占用
YOLOv11改进策略【卷积层】| CVPR-2023 部分卷积 PConv 轻量化卷积,降低内存占用
8 0
YOLOv11改进策略【卷积层】| CVPR-2023 部分卷积 PConv 轻量化卷积,降低内存占用
|
2月前
|
机器学习/深度学习 存储
线性化注意力综述:突破Softmax二次复杂度瓶颈的高效计算方案
大型语言模型虽在各领域表现出色,但其核心的softmax注意力机制存在显著的计算资源消耗问题。本文探讨通过线性时间复杂度的替代方案突破这一瓶颈,介绍线性注意力机制、门控线性注意力及状态空间模型(SSM)等创新方法,旨在优化计算效率与内存容量之间的权衡,提升模型性能。
107 9
线性化注意力综述:突破Softmax二次复杂度瓶颈的高效计算方案
|
3天前
|
计算机视觉
YOLOv11改进策略【卷积层】| CVPR-2024 利用DynamicConv 动态卷积 结合C3k2进行二次创新,提高精度
YOLOv11改进策略【卷积层】| CVPR-2024 利用DynamicConv 动态卷积 结合C3k2进行二次创新,提高精度
9 0
|
3月前
|
机器学习/深度学习 计算机视觉 网络架构
【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测
【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目DWRSeg是一种高效的实时语义分割网络,通过将多尺度特征提取分为区域残差化和语义残差化两步,提高了特征提取效率。它引入了Dilation-wise Residual (DWR) 和 Simple Inverted Residual (SIR) 模块,优化了不同网络阶段的感受野。在Cityscapes和CamVid数据集上的实验表明,DWRSeg在准确性和推理速度之间取得了最佳平衡,达到了72.7%的mIoU,每秒319.5帧。代码和模型已公开。
【YOLO11改进 - C3k2融合】C3k2DWRSeg二次创新C3k2_DWR:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测
|
7月前
|
计算机视觉 网络架构
【YOLOv8改进 - 卷积Conv】DWRSeg:扩张式残差分割网络,提高特征提取效率和多尺度信息获取能力,助力小目标检测
YOLO目标检测专栏探讨了YOLO的创新改进,如多尺度特征提取的DWRSeg网络。该网络通过区域残差化和语义残差化提升效率,使用DWR和SIR模块优化高层和低层特征。DWRSeg在Cityscapes和CamVid数据集上表现优秀,速度与准确性兼备。论文和代码已公开。核心代码展示了一个包含DWR模块的卷积层。更多配置详情见相关链接。