一文带你了解时下最新的目标检测模型——YOLOv8

本文涉及的产品
交互式建模 PAI-DSW,5000CU*H 3个月
模型训练 PAI-DLC,5000CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
简介: Ultralytics YOLOv8: State-of-the-Art YOLO Models,作者:Sovit Rath

YOLOv8是什么?
YOLOv8是Ultralytics公司推出的基于对象检测模型的YOLO最新系列,它能够提供截至目前最先进的对象检测性能。

借助于以前的YOLO模型版本支持技术,YOLOv8模型运行得更快、更准确,同时为执行任务的训练模型提供了统一的框架,这包括:

目标检测
实例分割
图像分类
在撰写本文时,Ultralytics的YOLOv8存储库中其实还有很多功能有待添加,这包括训练模型的整套导出功能等。此外,Ultralytics将计划在Arxiv上发布一篇相关的论文,将对YOLOv8与其他最先进的视觉模型进行比较。

YOLOv8的新功能
Ultralytics为YOLO模型发布了一个全新的存储库(https://github.com/ultralytics/ultralytics)。该存储库被构建为用于训练对象检测、实例分割和图像分类模型的统一框架。

以下列举的是这个新版本的一些关键功能:

用户友好的API(命令行+Python)。
更快、更准确。
支持:
目标检测,
实例分割和
图像分类。
可扩展到所有以前的版本。
新的骨干网络。
新的Anchor-Free head对象检测算法。
新的损失函数。
此外,YOLOv8也非常高效和灵活,它可以支持多种导出格式,而且该模型可以在CPU和GPU上运行。

YOLOv8中提供的子模型

YOLOv8模型的每个类别中共有五个模型,以便共同完成检测、分割和分类任务。其中,YOLOv8 Nano是最快和最小的模型,而YOLOv8Extra Large(YOLOv8x)是其中最准确但最慢的模型。

YOLOv8这次发行中共附带了以下预训练模型:

在图像分辨率为640的COCO检测数据集上训练的对象检测检查点。
在图像分辨率为640的COCO分割数据集上训练的实例分割检查点。
在图像分辨率为224的ImageNet数据集上预处理的图像分类模型。
下面,让我们来看看使用YOLOv8x进行检测和实例分割模型的输出效果,请参考下面的gif动画。

如何使用YOLOv8?
为了充分发挥出YOLOv8的潜力,需要从存储库以及ultralytics包中安装相应的需求。

要安装这些需求,我们首先需要克隆一下该模型的存储库,命令如下:

复制

git clone https://github.com/ultralytics/ultralytics.git

接下来,安装需求配置文件:

复制

pip install -r requirements.txt

在最新版本中,Ultralytics YOLOv8同时提供了完整的命令行界面(CLI)API和Python SDK,用于执行训练、验证和推理任务。

为了使用yolo命令行界面(CLI),我们需要安装ultralytics包,命令如下:

复制

pip install ultralytics

如何通过命令行界面(CLI)使用YOLOv8?

安装必要的软件包后,我们可以使用yolo命令访问YOLOv8 CLI。以下给出的是使用yolo CLI运行对象检测推断的命令行代码示例:

复制

yolo task=detect \

mode=predict \

model=yolov8n.pt \

source="image.jpg"

其中,task参数可以接受三个参数值:detect、classify和segment,分别对应于检测、分类和分段三种任务。类似地,mode参数可以有三个取值,分别是train、val或predict。此外,在导出训练模型时,我们也可以将mode参数指定为export。

有关所有可能的yolo CLI标志和参数,有兴趣的读者可参考链接https://docs.ultralytics.com/config/

如何通过Python API使用YOLOv8?

除了通过上面CLI方式使用YOLOv8外,我们还可以创建一个简单的Python文件,导入YOLO模块并执行我们选择的任务。

复制

from ultralytics import YOLO

model = YOLO("yolov8n.pt") # 加载一个预训练的YOLOv8n模型

model.train(data="coco128.yaml") #训练模型

model.val() # 评估验证集上的模型性能

model.predict(source="https://ultralytics.com/images/bus.jpg") #对图像进行预测

model.export(format="onnx") # 将模型导出为ONNX格式

例如,在上述代码中首先在COCO128数据集上训练YOLOv8 Nano模型,然后在验证集上对其进行评估,最终对样本图像进行预测。

接下来,让我们通过yolo CLI方式来使用对象检测、实例分割和图像分类模型进行推断。

目标检测的推断结果

以下命令实现使用YOLOv8 Nano模型对视频进行检测。

复制

yolo task=detect mode=predict model=yolov8n.pt source='input/video_3.mp4' show=True

该推断的运行硬件环境是在笔记本电脑GTX 1060 GPU上以几乎105 FPS的速度运行的,最终我们得到以下输出结果:

使用YOLOv8 Nano模型进行检测推断

需要说明的是,YOLOv8 Nano模型在几帧内把猫和狗进行了混合。让我们使用YOLOv8 Extra Large模型对同一视频进行检测并检查输出。

复制

yolo task=detect mode=predict model=yolov8x.pt source='input/video_3.mp4' show=True

注意:上面的YOLOv8 Extra Large模型在GTX 1060 GPU上以平均17 FPS的速度运行。

尽管这一次的误分类略有减少,但模型仍然在一些帧中进行了错误的检测。

实例分割的推理结果

使用YOLOv8实例分割模型运行推理同样是很简单的。我们只需要在上面的命令中更改一下任务和模型名称即可,结果如下:

复制

yolo task=segment mode=predict model=yolov8x-seg.pt source='input/video_3.mp4' show=True

因为实例分割与对象检测是结合在一起的,所以这一次运行时的平均FPS约为13。

使用YOLOv8超大模型进行分割推断

分割图在输出中看起来很干净。即使当猫在最后几帧隐藏在块下时,模型也能够检测并分割它。

图像分类的推理结果

最后,由于YOLOv8已经提供了预训练的分类模型,让我们使用yolov8x-cls模型对同一视频进行分类推断。这是截止目前存储库提供的最大分类模型。

复制

yolo task=classify mode=predict model=yolov8x-cls.pt source='input/video_3.mp4' show=True

使用YOLOv8超大模型进行分类推断

默认情况下,视频用模型预测的前5个类进行标注。在没有任何后期处理的情况下,标注部分直接使用了ImageNet类名。

YOLOv8 vs YOLOv7 vs YOLOv6 vs YOLOv5

可以看出,YOLOv8模型似乎比之前的YOLO模型表现更好;这不仅是相比于YOLOv5模型来说的,YOLOv8也优越于YOLOv7和YOLOv6模型。

YOLOv8与其他YOLO模型性能相比。

由上图可以看出,与以640图像分辨率训练的其他YOLO模型相比,所有YOLOv8模型在参数数量相似的情况下具有更好的吞吐量。

接下来,让我们更为详细了解一下最新的YOLOv8模型与Ultralytics公司的YOLOv5模型的性能差异。下面几个表格显示了YOLOv8和YOLOv5之间的综合比较情况。

总体比较
YOLOv8和YOLOv5之间的性能比较

YOLOv8模型与YOLOv5模型性能比较表

对象检测比较

YOLOv8模型与YOLOv5模型对象检测性能比较情况见下表:

YOLOv8模型与YOLOv5模型对象检测性能比较

实例分段比较

YOLOv8模型与YOLOv5模型实例分段性能比较情况见下表:

YOLOv8与YOLOv5实例分割模型性能比较

图像分类比较

YOLOv8与YOLOv5图像分类模型情况

整体来看,其实也很明显,最新的YOLOv8模型比YOLOv5要好得多,除了一种分类模型外。

YOLOv8目标检测模型的发展
下面给出的这张图像显示了YOLO目标检测模型的时间线以及YOLOv8的演变情况。

YOLOv8目标检测模型的演变情况

YOLOv1模型

YOLO对象检测的第一个版本,即YOLOv1,由Joseph Redmon等人于2015年发布。这是第一个产生SSD和所有后续YOLO模型的单级对象检测(SSD)模型。

YOLO 9000(第2版)

YOLOv2,又称YOLO 9000,由YOLOv1的原作者约瑟夫·雷蒙提出。它改进了原来的YOLOv1模型——引入了锚盒(Anchor Box)的概念和更好的主干(即Darknet-19)。

YOLOv3

2018年,约瑟夫·雷蒙和阿里·法哈迪公布了YOLOv3模型。其实,这不是一个架构上的飞跃,算是一份技术报告,但YOLO家族还是有了很大的进步。YOLOv3模型使用Darknet-53主干、残差连接,并使用更好的预训练和图像增强技术来实现改进。

Ultralytics YOLO目标检测模型

YOLOv3之前的所有YOLO对象检测模型都使用C编程语言编写,并使用Darknet框架。但是,新手们发现很难遍历代码库并对模型进行微调。

于是,大约与YOLOv3模型发布的同时,Ultralytics发布了第一个使用PyTorch框架实现的YOLO(YOLOv3)。这个模型更为容易访问,也更容易用于转移学习领域。

发布YOLOv3模型后不久,约瑟夫·雷蒙离开了计算机视觉(Computer Vision)研究界。YOLOv4(Alexey等人)是最后一个用Darknet编写的YOLO模型。之后,又相继出现了其他许多的YOLO物体检测模型,例如缩放版YOLOv4、YOLOX、PP-YOLO、YOLOv6和YOLOv7代表了其中较为突出的一些模型。

在YOLOv3之后,Ultralytics还发布了YOLOv5,它比所有其他YOLO模型更好、更快、更易于使用。

截至目前(2023年1月),Ultralytics在Ultralytics存储库下发布了YOLOv8,这可能是迄今为止最好的YOLO模型。

结论
在本文中,我们探讨了YOLO模型的最新版本,即YOLOv8。其中,我们具体介绍了这款新模型的性能,以及软件包附带的命令行界面用法。除此之外,我们还对少数几个视频数据进行了推断展示。

在以后的文章中,我们还将在自定义数据集上对YOLOv8模型进行微调。

最后,如果您自己也在进行任何有关YOLOv8模型的实验

目录
相关文章
|
机器学习/深度学习 算法 数据挖掘
目标检测算法——YOLOv3
目标检测算法——YOLOv3
356 0
目标检测算法——YOLOv3
|
算法 Go 计算机视觉
【YOLO系列】YOLOv8算法(尖端SOTA模型)
Ultralytics YOLOv8 是由 Ultralytics开发的一个前沿 SOTA 模型。它在以前 YOLO 版本的成功基础上,引入了新的功能和改进,进一步提升了性能和灵活性。YOLOv8 基于快速、准确和易于使用的理念设计,使其成为广泛的物体检测、图像分割和图像分类任务的绝佳选择。
2907 0
【YOLO系列】YOLOv8算法(尖端SOTA模型)
|
6月前
|
机器学习/深度学习 计算机视觉 网络架构
YOLOv9实时目标检测新SOTA
【2月更文挑战第6天】YOLOv9实时目标检测新SOTA
166 2
YOLOv9实时目标检测新SOTA
|
机器学习/深度学习 并行计算 算法
基于 PyTorch 的目标检测(YOLO实现)
基于 PyTorch 的目标检测(YOLO实现)
|
机器学习/深度学习 固态存储 算法
目标检测之TextBoxes++
翻译:《 TextBoxes++: A Single-Shot Oriented Scene Text Detector》
|
机器学习/深度学习 算法 自动驾驶
目标检测之TextSnake
翻译:《TextSnake: A Flexible Representation for Detecting Text of Arbitrary Shapes》
106 0
|
机器学习/深度学习 算法 数据可视化
详细解读SSPNet| 小目标检测该如何进行改进?
详细解读SSPNet| 小目标检测该如何进行改进?
230 0
|
数据挖掘 计算机视觉
目标检测:YOLOV3技术详解
目标检测:YOLOV3技术详解
250 0
目标检测:YOLOV3技术详解
|
算法 固态存储 计算机视觉
目标检测算法——YOLOv1
目标检测算法——YOLOv1
225 0
目标检测算法——YOLOv1
|
机器学习/深度学习 编解码 算法
目标检测算法——YOLOv2
目标检测算法——YOLOv2
196 0
目标检测算法——YOLOv2