与我们一起重温戴维-斯科特(David Scott)的YOLO Vision 2024 主题演讲:人工智能驱动的行为分析及其在动物养殖等行业的实际应用。
多年来,计算机视觉创新一直专注于物体检测等任务--在图像和视频中识别狗或汽车等物体。这些方法已在自动驾驶汽车、制造业和医疗保健等领域得到应用。
然而,这些任务通常只侧重于识别物体是什么。如果视觉人工智能系统能更进一步呢?例如,与其简单地检测一只狗,不如说它能理解这只狗在追一个球,或者理解一辆汽车突然刹车是因为有行人正在过马路。从基本识别到情境理解的这一转变,代表着向更智能、情境感知行为人工智能的重大转变。
YOLO Vision 2024(YV24)是Ultralytics庆祝视觉人工智能进展的年度混合活动,在该活动上,人工智能驱动的行为分析概念在 The Main Branch 首席执行官大卫-斯科特(David Scott)的精彩演讲中占据了中心位置。
在演讲中,戴维探讨了从基本计算机视觉任务到行为跟踪的转变。他在构建尖端技术应用方面拥有超过 25 年的经验,他展示了这一飞跃的影响。他强调了解码模式和行为如何重塑农业和动物福利等行业。
在本文中,我们将介绍戴维演讲的重点内容,并探讨行为跟踪如何使人工智能更加实用。
大卫-斯科特(David Scott)在他的主题演讲中首先进行了大胆的现实检验,他说:"我的一位同事经常说,'科学卖不出去',这有点冒犯我们在座的许多人,因为我们真的很喜欢科学。人工智能真的很酷,人们为什么不买呢?但现实是,人们并不会因为我们认为它很酷就想买它,他们需要一个购买的理由"。
他继续解释说,在他的公司 The Main Branch,重点始终是用人工智能解决实际问题,而不仅仅是炫耀人工智能的能力。很多客户来公司时都想泛泛而谈如何使用人工智能,但他认为这是一种落后的做法--这就好比没有问题却有解决方案。取而代之的是,他们与带来具体挑战的客户合作,这样就能创造出真正有所作为的人工智能解决方案。
大卫还表示,他们的工作往往不仅仅是识别场景中的物体。发现物体只是第一步。真正的价值来自于找出如何处理这些信息,并使其在更大的价值链中发挥作用。
要使人工智能真正发挥作用,关键的一步是超越物体检测等基本计算机视觉任务,将这些洞察力用于行为跟踪。David 强调说,行为人工智能的重点是理解行为和模式,而不仅仅是识别物体。这使得人工智能能够识别有意义的事件并提供可操作的见解。
他举了一个动物在地上打滚的例子,这可能预示着动物生病了。虽然人无法全天候监视动物,但具有行为跟踪功能的人工智能驱动监控系统却可以。这种解决方案可以持续监控物体,检测特定行为,发出警报,并及时采取行动。这样就能将原始数据转化为实用且有价值的东西。
大卫还展示了这种方法使人工智能不仅有趣,而且真正具有影响力。通过解决实际问题(如监控行为并采取行动),行为跟踪可以成为各行各业有效人工智能解决方案的关键部分。
随后,戴维-斯科特说明了 Ultralytics YOLOv8计算机视觉模型是他团队行为跟踪项目的一大突破。它为他们检测、分类和跟踪物体奠定了坚实的基础。他的团队还更进一步,对 YOLOv8 进行了 定制训练,使其专注于监测一段时间内的行为,从而使其更加实用,更有助于实际情况的应用。
有趣的是,随着 Ultralytics YOLO11的发布,像 The Main Branch 这样的解决方案可以变得更加可靠和准确。这种最新型号具有更高的精度和更快的处理速度等特点,从而增强了跟踪行为的能力。在更好地了解行为人工智能的应用后,我们将对此进行更详细的讨论。
接下来,让我们来探讨一下 David 所谈到的解决方案,以及行为跟踪技术是如何在实际应用中解决日常挑战并产生有意义的影响的。
首先,戴维分享了他们在一个名为 "牛群感知"(HerdSense)的项目中遇到的一个令人兴奋的挑战,该项目涉及监测一个大型饲养场中成千上万头奶牛的健康状况。该项目的目标是跟踪每头奶牛的行为,以发现潜在的健康问题。这意味着要同时监控数以万计的动物,而这并不是一项简单的任务。
为了着手解决识别每头奶牛并跟踪其行为的问题,David 的团队举办了为期两天的研讨会,概述了他们需要监控的每一种可能的行为。他们总共确定了 200 多种行为。
200 种行为中的每一种都取决于能否准确识别奶牛个体,因为所有数据都必须与特定的动物联系在一起。一个主要的问题是,当奶牛成群结队地聚集在一起时,就很难追踪到它们的个体。
戴维的团队开发了一套计算机视觉系统,以确保即使在棘手的情况下也能始终如一地识别每头牛。他们能够确认,同一头奶牛总是会被分配到相同的 ID,即使它从视野中消失、与其他奶牛混在一起或稍后再次出现。
接着,戴维介绍了另一个引人入胜的项目,他们将类似的行为跟踪技术应用于监测马匹。在这个项目中,戴维的团队不需要像对奶牛那样密切跟踪 每匹马的 ID。相反,他们专注于特定的行为,并跟踪饮食模式和一般活动水平等细节,以便及早发现任何健康问题。发现行为上的细微变化可以更快地进行干预,提供更好的护理,防患于未然。
大卫还通过一个有趣的例子讨论了行为跟踪的复杂性。在研究改进行为分析的方法时,他的团队遇到了一家公司,该公司声称可以通过分析特定姿势(比如某人把手放在口袋里)来检测商店行窃。起初,这似乎是个聪明的想法--某些动作可能暗示着可疑行为,对吗?
然而,随着大卫的进一步探索,他意识到了这种方法的局限性。一个单一的姿势,比如把手放在口袋里,并不一定意味着某人在商店行窃。它可能只是表示他们在放松、思考,甚至是冷漠。关注孤立姿势的问题在于,它忽略了更大的背景。行为不仅仅是一个单一的动作,它是一个长期的动作模式,受环境和意图的影响。
David 强调说,真正的行为跟踪要复杂得多,需要采用整体方法。这涉及到分析行为序列并理解它们在更广阔的范围内的含义。虽然人工智能行业正在取得长足进步,但他指出,在推进行为跟踪以提供有意义和准确的洞察力方面仍有许多工作要做。
随后,David 带观众参观了他的团队如何利用YOLOv8 及其姿势估计能力构建计算机视觉解决方案来监测奶牛的健康状况。
他们首先创建了一个用于估算奶牛姿势的自定义数据集,将关键点的标准数量从 17 个增加到 145 个,以使模型能更好地分析动作。然后,在包含 200 多万张图片和 1.1 亿个行为示例的海量数据集上对模型进行训练。
利用先进的硬件基础设施,戴维的团队只用了两天时间就完成了模型训练,而传统硬件则需要数周时间。训练好的模型随后与定制的行为跟踪器集成,该跟踪器可同时分析多个视频帧,以检测奶牛的行动模式。
最终,我们开发出了一款人工智能驱动的视觉解决方案,它可以检测和跟踪奶牛的八种不同行为,如进食、饮水和躺卧,从而发现可能预示着健康问题的细微行为变化。这样,牧场主就能迅速采取行动,改善牛群管理。
在结束演讲时,戴维与听众分享了重要的一课:"如果你不给人工智能留出失败的空间,你就会为自己的失败埋下伏笔,因为归根结底,人工智能是统计出来的"。他指出,人工智能尽管有其优势,但并非完美无瑕。它是一种从模式中学习的工具,总会有做不好的时候。与其害怕这些错误,关键是要建立能够处理这些错误的系统,并随着时间的推移不断改进。
计算机视觉模型本身也是如此。例如,Ultralytics YOLO11 是Ultralytics YOLO 模型的最新版本,它的建立考虑到了与YOLOv8 相比更上一层楼的需要。
尤其是,YOLO11 可提供更好的性能,特别是在农业和医疗保健等精度至关重要的实时应用方面。凭借其先进的功能,YOLO11 正在重新定义各行业使用人工智能的方式,提供创新的实时洞察力,帮助他们更有效地应对挑战。
大卫在 YV24 上的主题演讲提醒我们,人工智能不仅仅是一项很酷的创新,它还是解决实际问题、改善我们生活和工作方式的强大工具。通过关注行为,人工智能已经在跟踪动物健康和识别日常行为中的有意义模式等领域产生了影响。
行为人工智能的潜力令人振奋,而我们才刚刚起步。通过将原始数据转化为可操作的见解,行为人工智能从被动监控转变为主动解决问题。随着它的进一步发展,行为人工智能必将推动更明智的决策、简化流程,并为我们的生活带来有意义的改善。
与我们的社区保持联系,了解有关人工智能及其实际应用的更多信息。访问我们的 GitHub 存储库,了解农业人工智能和制造业计算机视觉等领域的创新。