了解如何使用Ultralytics YOLO11 模型进行精确的姿态估计。我们将介绍各种应用中的实时推理和自定义模型训练。
计算机视觉是人工智能(AI)的一个分支,其相关研究可以追溯到 20 世纪 60 年代。然而,直到 2010 年代,随着深度学习的兴起,我们才看到机器在理解图像方面取得了重大突破。计算机视觉领域的最新进展之一是尖端的 Ultralytics YOLO11模型。YOLO11 模型首次在Ultralytics'年度混合活动 YOLO Vision 2024(YV24)上推出,支持包括姿态估计在内的一系列计算机视觉任务。
姿势估计可用于检测图像或视频中人物或物体的关键点,以了解其位置、姿势或动作。它广泛应用于体育分析、动物行为监测和机器人等领域,帮助机器实时解读物理动作。与YOLO (You Only Look Once)系列中的早期型号相比,它的准确性、效率和速度都得到了提高、 YOLO11非常适合实时姿态估计任务。
在本文中,我们将探讨什么是姿态估计,讨论它的一些应用,并介绍如何使用 YOLO11Ultralytics Python 软件包进行姿势估计。我们还将介绍如何使用Ultralytics HUB,只需简单点击几下就能尝试 YOLO11 和姿势估计。让我们开始吧!
在深入了解如何使用新的Ultralytics YOLO11 模型进行姿势估计之前,我们先来了解一下姿势估计。
姿势估计是一种计算机视觉技术,用于分析图像或视频中人或物体的姿势。深度学习模型,如 YOLO11等深度学习模型可以识别、定位和跟踪给定物体或人身上的关键点。对于物体来说,这些关键点可能包括角落、边缘或明显的表面标记,而对于人类来说,这些关键点代表了主要关节,如肘关节、膝关节或肩关节。
与其他计算机视觉任务(如物体检测)相比,姿势估计既独特又复杂。物体检测是通过在物体周围画一个框来定位图像中的物体,而姿态估计则是通过预测物体上关键点的准确位置来进一步确定物体的位置。
说到姿态估计,主要有两种方法:自下而上和自上而下。自下而上的方法是检测单个关键点,然后将它们组合成骨架,而自上而下的方法则是首先检测物体,然后估计其中的关键点。
YOLO11 结合了自上而下和自下而上两种方法的优点。与自下而上的方法一样,这种方法简单快捷,无需手动对关键点进行分组。同时,它还利用了自上而下方法的准确性,只需一步即可检测人物并估算其姿势。
YOLO11 在姿态估计方面的多功能为许多行业开辟了广泛的应用前景。让我们来详细了解一下YOLO11 的一些姿态估计应用案例。
安全是任何建筑项目的一个重要方面。据统计,建筑工地的工伤事故数量较高,因此安全问题尤为重要。2021 年,约 20% 的工伤死亡事故发生在建筑工地上或附近。面对重型设备和电气系统等日常风险,强有力的安全措施对确保工人安全至关重要。使用标志、路障和监管人员人工监控等传统方法并不总是有效的,而且往往会占用监管人员更重要的工作时间。
Ultralytics YOLO11 模型可用于跟踪工人的动作和姿势。任何潜在的危险,如工人站得离危险设备太近或不正确地执行任务,都能被迅速发现。如果检测到危险,可以通知主管人员,或发出警报提醒工人。持续监控系统可以时刻警惕危险并保护工人,从而使建筑工地更加安全。
农场主和研究人员可以使用YOLO11 研究牛等农场动物的运动和行为,以检测跛足等疾病的早期迹象。跛足是指动物因腿部或脚部疼痛而难以正常行动。对于牛来说,跛足等疾病不仅会影响它们的健康和福利,还会导致奶牛场的生产问题。研究表明,在全球奶牛业中,8%的牧场牛和15%至30%的圈养牛跛足。及早发现和解决跛足问题有助于改善动物福利,减少与这种疾病相关的生产损失。
YOLO11的姿势估计功能可以帮助养殖户跟踪动物的步态,并快速识别任何可能预示着健康问题(如关节问题或感染)的异常情况。及早发现这些问题可以加快治疗速度,减少动物的不适感,帮助养殖户避免经济损失。
视觉人工智能监控系统还能帮助分析休息行为、社会互动和进食模式。农场主还可以利用姿势估计来观察动物的压力或攻击迹象。这些洞察力可用于为动物创造更好的生活条件,提高它们的福利。
姿势评估还能帮助人们在健身时实时改善姿势。通过YOLO11 ,健身房和瑜伽教练可以监控和跟踪健身者的身体动作,重点关注关节和肢体等关键点,以评估他们的姿势。收集到的数据可以与理想的姿势和锻炼技巧进行比较,如果有人的动作不正确,教练可以收到警报,帮助防止受伤。
例如,在瑜伽课上,姿势估计可以帮助监测所有学生是否都保持了正确的平衡和姿势。集成了计算机视觉和姿势估算功能的移动应用可以让在家健身或没有私人教练的人更方便地进行健身。这种持续的实时反馈可以帮助用户改进技术,实现健身目标,同时降低受伤的风险。
现在我们已经了解了什么是姿势估计,并讨论了它的一些应用。让我们来看看如何使用新的YOLO11 模型尝试姿势估计。要开始尝试,有两种方便的方法:使用Ultralytics Python 软件包或通过Ultralytics HUB。让我们来看看这两种方法。
运行推理涉及YOLO11 模型处理其训练 集之外的新数据,并根据这些数据使用所学模式进行预测。您可以使用Ultralytics Python 软件包通过代码运行推理。您只需使用 pip、conda 或 Docker 安装Ultralytics 软件包即可开始 使用。如果您在安装过程中遇到任何问题,我们的《常见问题指南》将为您提供有用的故障排除技巧。
成功安装软件包后,下面的代码概述了如何加载模型并用它来预测图像中物体的姿势。
比方说,您正在做一个计算机视觉项目,您有一个特定的数据集,用于涉及姿态估计的特定应用。然后,您可以微调和训练一个定制的YOLO11 模型,以适应您的应用。例如,您可以使用关键点数据集,通过识别老虎四肢、头部和尾部位置等关键特征来分析和了解老虎在图像中的姿态。
您可以使用以下代码片段加载和训练YOLO11 姿态估计模型。模型可以通过YAML 配置构建,也可以加载预先训练好的模型进行训练。该脚本还可让你传输权重,并使用指定数据集(如用于姿势估计的COCO 数据集)开始训练模型。
使用新训练的自定义模型,您可以对与计算机视觉解决方案相关的未见图像进行推理。还可以使用导出模式将训练好的模型转换为其他格式。
到目前为止,我们已经了解了一些使用YOLO11 的方法,这些方法需要一些基本的编码知识。如果这不是你想要的,或者你不熟悉编码,还有另一种选择:Ultralytics HUB。Ultralytics HUB 是一个用户友好型平台,旨在简化YOLO 模型的训练和部署过程。HUB 可让您轻松管理数据集、训练模型和部署模型,而无需专业技术知识。
要对图像进行推断,您可以创建一个账户,导航到 "模型 "部分,然后选择您感兴趣的YOLO11 姿势估计模型。在预览部分,您可以上传图像并查看预测结果,如下图所示。
Ultralytics YOLO11 为各种应用中的姿势估计等任务提供精确而灵活的解决方案。从提高建筑工地工人的安全性,到监测牲畜健康状况以及在健身过程中协助纠正姿势,YOLO11 通过先进的计算机视觉技术带来了精确度和实时反馈。
它的多功能性、多种模型变体以及针对特定用例进行自定义训练的能力,使其成为开发人员和企业非常有价值的工具。无论是使用Ultralytics Python 软件包进行编码,还是使用Ultralytics HUB 来更轻松地实施,YOLO11 都能让姿势估计变得简单易用且极具影响力。
要了解更多信息,请访问我们的GitHub 存储库,并与我们的社区互动。在我们的解决方案页面探索人工智能在制造业和农业中的应用。🚀