RT-DETR改进策略【损失函数篇】| Slide Loss,解决简单样本和困难样本之间的不平衡问题

简介: RT-DETR改进策略【损失函数篇】| Slide Loss,解决简单样本和困难样本之间的不平衡问题

一、本文介绍

本文记录的是改进RT-DETR的损失函数,将其替换成Slide Loss,并详细说明了优化原因,注意事项等。Slide Loss函数可以有效地解决样本不平衡问题,为困难样本赋予更高的权重,使模型在训练过程中更加关注困难样本。若是在自己的数据集中发现容易样本的数量非常大,而困难样本相对稀疏,可尝试使用Slide Loss来提高模型在处理复杂样本时的性能。


专栏目录:RT-DETR改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:RT-DETR改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!

二、Slide Loss原理

2.1 IoU含义

IoU(P, G) = area(P∩G) / area(G),其中P是预测框,G是真实框(ground truth)。IoU的值在[0, 1]之间。

IoU是预测框与真实框的交集面积与并集面积之比。它用于衡量预测框与真实框的重合程度。

2.2 原理

  1. 样本分类依据
    • Slide Loss函数基于预测框和真实框的IoU大小来区分容易样本和困难样本。
    • 为了减少超参数,将所有边界框的IoU值的平均值作为阈值µ,小于µ的被视为负样本,大于µ的为正样本。
  2. 强调边界样本
    • 但处于边界附近的样本由于分类不明确,往往会遭受较大损失。为了解决这个问题,希望模型能够学习优化这些样本,并更充分地利用这些样本训练网络。
    • 首先将样本通过参数µ分为正样本和负样本,然后通过一个加权函数Slide来强调处于边界的样本。
    • Slide加权函数表达式为:
      $$f(x)= \begin{cases} 1&x\leq\mu - 0.1\\ e^{1-\mu}&\mu < x <\mu - 0.1\\ e^{1 - x}&x\geq u \end{cases} $$

在这里插入图片描述

2.2 优势

  1. 解决样本不平衡问题
    • 在大多数情况下,容易样本的数量非常大,而困难样本相对稀疏,Slide Loss函数可以有效地解决样本不平衡问题,使模型在训练过程中更加关注困难样本。
  2. 自适应学习阈值
    • 通过自动计算所有边界框的IoU值的平均值作为阈值µ,减少了人为设置超参数的难度,提高了模型的适应性。
  3. 提高模型性能
    • 根据论文实验结果,Slide函数在中等难度和困难子集上提高了模型的性能,使模型能够更好地学习困难样本的特征,提高了模型的泛化能力。

论文:https://arxiv.org/pdf/2208.02019
源码:https://github.com/Krasjet-Yu/YOLO-FaceV2/blob/d9c8f24d5dba392ef9d6b350a7c50b850051b32b/utils/loss.py#L16


三、实现代码及RT-DETR修改步骤

模块完整介绍、个人总结、实现代码、模块改进、二次创新以及各模型添加步骤参考如下地址:

https://blog.csdn.net/qq_42591591/article/details/143740633

目录
相关文章
|
1天前
|
人工智能 计算机视觉
RT-DETR改进策略【损失函数篇】| NWD损失函数,提高小目标检测精度
RT-DETR改进策略【损失函数篇】| NWD损失函数,提高小目标检测精度
28 5
RT-DETR改进策略【损失函数篇】| NWD损失函数,提高小目标检测精度
|
1天前
|
计算机视觉
RT-DETR改进策略【损失函数篇】| Shape-IoU:考虑边界框形状和尺度的更精确度量
RT-DETR改进策略【损失函数篇】| Shape-IoU:考虑边界框形状和尺度的更精确度量
22 1
RT-DETR改进策略【损失函数篇】| Shape-IoU:考虑边界框形状和尺度的更精确度量
|
3天前
|
关系型数据库 决策智能
YOLOv11改进策略【损失函数篇】| Slide Loss,解决简单样本和困难样本之间的不平衡问题
YOLOv11改进策略【损失函数篇】| Slide Loss,解决简单样本和困难样本之间的不平衡问题
21 6
|
1天前
|
机器学习/深度学习 计算机视觉
RT-DETR改进策略【损失函数篇】| WIoU v3:针对低质量样本的边界框回归损失函数
RT-DETR改进策略【损失函数篇】| WIoU v3:针对低质量样本的边界框回归损失函数
28 14
|
1天前
|
计算机视觉
RT-DETR改进策略【损失函数篇】| 利用MPDIoU,加强边界框回归的准确性
RT-DETR改进策略【损失函数篇】| 利用MPDIoU,加强边界框回归的准确性
25 2
|
3天前
|
机器学习/深度学习 计算机视觉
YOLOv11改进策略【损失函数篇】| WIoU v3:针对低质量样本的边界框回归损失函数
YOLOv11改进策略【损失函数篇】| WIoU v3:针对低质量样本的边界框回归损失函数
18 6
|
3天前
|
计算机视觉
YOLOv11改进策略【损失函数篇】| Shape-IoU:考虑边界框形状和尺度的更精确度量
YOLOv11改进策略【损失函数篇】| Shape-IoU:考虑边界框形状和尺度的更精确度量
22 4
|
6月前
|
SQL 自然语言处理 算法
评估数据集CGoDial问题之计算伪OOD样本的软标签的问题如何解决
评估数据集CGoDial问题之计算伪OOD样本的软标签的问题如何解决
|
9月前
|
机器学习/深度学习 人工智能
SalUn:基于梯度权重显著性的机器反学习方法,实现图像分类和生成的精确反学习
【4月更文挑战第29天】SalUn是一种新的机器反学习方法,专注于图像分类和生成的精确反学习。通过关注权重的梯度显著性,SalUn能更准确、高效地从模型中移除特定数据影响,提高反学习精度并保持稳定性。适用于多种任务,包括图像生成,且在条件扩散模型中表现优越。但计算权重梯度的需求可能限制其在大规模模型的应用,且在数据高度相关时效果可能不理想。[链接](https://arxiv.org/abs/2310.12508)
184 1
|
机器学习/深度学习 计算机视觉
EQ-Loss V2 | 利用梯度平均进一步缓解目标检测长尾数据分布问题(附论文下载)
EQ-Loss V2 | 利用梯度平均进一步缓解目标检测长尾数据分布问题(附论文下载)
305 0

热门文章

最新文章