对比Ultralytics YOLOv8、YOLOv9、YOLOv10 和Ultralytics YOLO11 ,了解这些模型从 2023 年到 2025 年的发展和改进情况。
从自动化日常任务到帮助实时做出明智决策,人工智能(AI)正在重塑各行各业的未来。计算机视觉(又称视觉人工智能)是人工智能中一个特别吸引人的领域。它的重点是让机器能够像人类一样分析和解释视觉数据。
具体来说,计算机视觉模型正在推动提高安全性和效率的创新。例如,这些模型可用于自动驾驶汽车检测行人,也可用于安全摄像机全天候监控场所。
一些最著名的计算机视觉模型是YOLO (只看一次)模型,它们以实时物体检测功能而闻名。随着时间的推移,YOLO 模型不断改进,每个新版本都具有更好的性能和更大的灵活性。
新版本如 Ultralytics YOLO11可以处理各种任务,如实例分割、图像分类、姿态估计和多目标跟踪,其准确性、速度和精度都比以往任何时候都要高。
在本文中,我们将比较 Ultralytics YOLOv8、YOLOv9、YOLOv10 和Ultralytics YOLO11 进行比较,以便更好地了解这些模型是如何发展的。我们将分析它们的主要功能、基准测试结果和性能差异。让我们开始吧!
Ultralytics 于 2023 年 1 月 10 日发布的YOLOv8 与早期的YOLO 模型相比,向前迈进了一大步。它针对实时、准确的检测进行了优化,将久经考验的方法与创新更新相结合,以获得更好的结果。
除对象检测外,它还支持以下计算机视觉任务:实例分割、姿态估计、定向边界框 (OBB) 对象检测和图像分类。YOLOv8 的另一个重要特点是,它有五种不同的型号可供选择:Nano、Small、Medium、Large 和 X,因此您可以根据自己的需要选择速度和准确性的最佳平衡点。
YOLOv8 具有多功能性和强大的性能,可用于安防系统、智慧城市、医疗保健和工业自动化等许多实际应用中。
下面将详细介绍YOLOv8 的其他一些主要功能:
YOLOv9 于 2024 年 2 月 21 日发布,由台湾中央研究院信息科学研究所的王建尧和廖鸿源共同开发。它支持对象检测和实例分割等任务。
该模型基于 Ultralytics YOLOv5的基础上,引入了两大创新技术:可编程梯度信息 (PGI) 和通用高效层聚合网络 (GELAN)。
PGI 可帮助 YOLOv9 在各层处理数据时保留重要信息,从而获得更准确的结果。同时,GELAN 改进了模型使用层的方式,提高了性能和计算效率。得益于这些升级,YOLOv9 可以在计算资源往往有限的边缘设备和移动应用上处理实时任务。
下面是YOLOv8 的其他一些主要功能:
YOLOv10 由清华大学的研究人员于 2024 年 5 月 23 日推出,主要用于实时物体检测。它解决了早期YOLO 版本的局限性,不再需要非最大抑制(NMS)这一用于消除重复检测的后处理步骤,并改进了整体模型设计。这使得物体检测速度更快、效率更高,同时仍能达到最先进的精度。
实现这一点的关键在于一种名为 "一致的双标签分配 "的训练方法。它结合了两种策略:一种是允许从同一对象中学习多个预测(一对多),另一种是专注于选择最佳的单个预测(一对一)。由于这两种策略都遵循相同的匹配规则,因此模型会自行学会避免重复,因此不需要 NMS。
YOLOv10 的架构还使用了经过改进的 CSPNet 主干网来更有效地学习特征,并使用了 PAN(路径聚合网络)颈部来结合来自不同层的信息,使其能够更好地检测小型和大型物体。这些改进使 YOLOv10 能够用于制造、零售和自动驾驶等领域的实际应用。
以下是 YOLOv10 的其他一些突出功能:
今年 9 月 30 日,Ultralytics 在其年度混合盛会YOLO Vision 2024(YV24)上正式发布了YOLO 系列的最新机型之一YOLO11 。
与以前的版本相比,该版本有了重大改进。YOLO11 速度更快、更准确、效率更高。它支持YOLOv8 用户熟悉的所有计算机视觉任务,包括对象检测、实例分割和图像分类。它还保持了与YOLOv8 工作流程的兼容性,使用户能够轻松顺利地过渡到新版本。
此外,YOLO11 的设计可满足从轻量级边缘设备到功能强大的云系统等各种计算需求。该模型既有开源版本,也有企业版本,可适用于不同的使用情况。
对于医疗成像和卫星探测等精密任务,以及自动驾驶汽车、农业和医疗保健等更广泛的应用领域来说,它都是一个不错的选择。
以下是YOLO11 的其他一些独特功能:
在探索不同机型时,光看它们的功能并不容易进行比较。这就是基准测试的作用所在。通过在同一数据集上运行所有模型,我们可以客观地衡量和比较它们的性能。让我们看看每个模型在COCO 数据集上的表现。
在对YOLO 模型进行比较时,每个新版本都在准确性、速度和灵活性方面有显著改进。尤其是 YOLO11m,它比YOLOv8m 少用了 22% 的参数,这意味着它运行起来更轻、更快。此外,尽管 YOLO11m 的体积更小,但它在 COCO 数据集上实现了更高的平均精度 (mAP)。该指标衡量模型检测和定位物体的能力,因此 mAP 越高,意味着预测越准确。
让我们来探讨一下这些模型在现实世界中的表现。
为了对YOLOv8、YOLOv9、YOLOv10 和YOLO11进行比较,我们在相同的交通视频上运行了这四款软件,并使用 0.3 的置信度评分(模型只有在至少有 30% 的置信度认为已正确识别出物体时才会显示检测结果)和 640 的图像大小进行公平评估。物体检测和跟踪结果凸显了在检测准确度、速度和精确度方面的主要差异。
从第一帧开始,YOLO11 就捕捉到了 YOLOv10 没有捕捉到的卡车等大型车辆。YOLOv8 和 YOLOv9 表现不错,但因光照条件和物体大小而异。虽然YOLO11 在检测较小、较远的车辆方面也有明显改善,但在所有模型中,这仍然是一个挑战。
在速度方面,所有型号的每帧运行时间都在 10 到 20 毫秒之间,足以以超过 50 FPS 的速度处理实时任务。一方面,YOLOv8 和 YOLOv9 在整个视频中提供了稳定可靠的检测。有趣的是,为降低延迟而设计的 YOLOv10 速度更快,但在检测某些物体类型时出现了一些不一致的情况。
而YOLO11 则在精确度方面表现突出,在速度和精确度之间取得了很好的平衡。虽然没有一个型号在每一帧中都表现完美,但并排比较清楚地表明,YOLO11 整体性能最佳。
为项目选择模型取决于项目的具体要求。例如,一些应用可能会优先考虑速度,而另一些应用则可能需要更高的精度,或面临影响决策的部署限制。
另一个重要因素是您需要处理的计算机视觉任务类型。如果您希望在不同任务中获得更广泛的灵活性,YOLOv8 和YOLO11 是不错的选择。
选择YOLOv8 还是YOLO11 完全取决于您的需求。如果您是计算机视觉领域的新手,并希望拥有更大的社区、更多的教程和广泛的第三方集成,那么YOLOv8 是一个可靠的选择。
另一方面,如果您希望获得更先进的性能、更高的准确性和更快的速度,YOLO11 是更好的选择,不过由于是新版本,它的社区规模较小,集成也较少。
从Ultralytics YOLOv8 到Ultralytics YOLO11,YOLO 模型系列的演变反映了向更智能的计算机视觉模型的持续推进。每个版本的YOLO 都在速度、准确性和精确度方面进行了有意义的升级。
随着计算机视觉技术的不断进步,这些模型为现实世界的各种挑战提供了可靠的解决方案,从物体检测到自主系统。YOLO 模型的不断发展表明,该领域已经取得了长足的进步,未来我们还可以期待更多。
要了解有关人工智能的更多信息,请访问我们的GitHub 存储库并与我们的社区互动。探索各行各业的进步,从制造业中的视觉人工智能到医疗保健领域的计算机视觉。查看我们的许可选项,立即开始您的视觉人工智能项目。