了解计算机视觉中物体追踪的工作原理。探索如何Ultralytics 通过唯一ID识别并监控物体,实现实时分析。
目标跟踪是计算机视觉(CV)中一个动态过程,涉及识别视频中的特定实体并追踪其在连续帧中的运动轨迹。与将每个静态图像孤立分析的静态图像处理不同,跟踪技术引入了时间维度。 这使得人工智能(AI)系统能够为每个检测到的对象(如汽车、人或动物)分配唯一的标识号(ID),并在物体移动、改变方向或暂时被遮挡时保持该身份的连续性。该能力是高级视频理解的基础,使机器能够分析行为、计算轨迹,并从原始视频中获取可操作的洞察。
现代追踪系统通常采用"基于检测的追踪"范式。该工作流程将强大的检测模型与专用算法相结合,以关联不同时间段的检测结果。该过程通常遵循三个主要阶段:
尽管这些术语密切相关,但在机器学习(ML)管道中它们发挥着不同的功能。
保持对象身份的能力使跨行业的复杂实时推理应用成为可能。
Ultralytics 高性能跟踪的实施Ultralytics 简单。 track 库中的模式
自动处理检测、运动预测和ID分配。下面的示例展示了如何使用该模式。
Ultralytics 平台 兼容的YOLO26模型用于在视频中track 。
from ultralytics import YOLO
# Load the official YOLO26n model (nano version for speed)
model = YOLO("yolo26n.pt")
# Track objects in a video file or webcam (source=0)
# 'show=True' displays the video with bounding boxes and unique IDs
results = model.track(source="https://ultralytics.com/images/bus.jpg", show=True)
# Access the unique tracking IDs from the results
if results[0].boxes.id is not None:
print(f"Detected Track IDs: {results[0].boxes.id.cpu().numpy()}")
要全面理解追踪生态系统,探索实例分割技术大有裨益——该技术能追踪物体的精确像素级轮廓,而非仅追踪边界框。此外,多目标追踪(MOT)挑战通常采用MOTChallenge等广泛使用的基准测试,以评估算法在处理拥挤场景和遮挡问题时的表现。 在生产环境部署时,开发者常采用NVIDIA 或 OpenCV 等工具将模型集成到高效管道中。