了解检测头如何实现实时目标检测。探索Ultralytics 中的作用,该系统能以高精度预测边界框和标签。
检测头作为目标检测神经网络架构中的最终决策层。虽然模型前端层负责理解图像中的形状、纹理和特征,但检测头是将这些信息转化为具体预测结果的关键组件——它能精确识别图像中存在的物体及其位置。 它将特征提取器生成的抽象高阶数据转化为可操作结果,通常输出包含已识别物体的边界框集合,并附带对应的类别标签与置信度评分。
要充分理解检测头的功能,可将现代检测器视作由三个主要阶段构成,每个阶段在计算机视觉(CV)管道中都承担着独特的作用:
检测头的设计已显著演进,以提升速度和准确性,尤其是在从传统方法向现代实时推理模型过渡的过程中。
检测头的精度对于在安全关键型和工业环境中部署人工智能(AI)至关重要。用户Ultralytics 轻松标注数据并训练这些专用检测头。
以下示例演示了如何加载一个
YOLO26 模型并检查其检测头的输出。
当推理运行时,该头处理图像并返回最终结果。 boxes 包含坐标和
类ID。
from ultralytics import YOLO
# Load the YOLO26n model (nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image to utilize the detection head
results = model("https://ultralytics.com/images/bus.jpg")
# The detection head outputs are stored in results[0].boxes
for box in results[0].boxes:
# Print the bounding box coordinates and the predicted class
print(f"Class: {int(box.cls)}, Coordinates: {box.xywh.numpy()}")
该交互过程突显了检测头如何将复杂的神经网络激活转化为可读数据, 开发者可利用这些数据执行物体追踪或计数等下游任务。