探索可观测性在人工智能和机器学习中的重要性。学习如何调试复杂系统、监控Ultralytics 性能,并深入理解模型运作机制。
可观测性指仅凭复杂系统的外部输出即可理解其内部状态的能力。在快速发展的 人工智能(AI) 和 机器学习(ML)中,可观测性不仅限于简单的状态检查,更能深入剖析模型行为背后的成因。随着现代 深度学习(DL) 架构——例如尖端的 YOLO26——日益复杂化,常呈现"黑箱"特性。可观测性工具为这些系统开辟透明窗口,使工程团队能够调试异常行为、追溯错误根源,并确保生产环境的可靠性。
尽管可观测性与模型监控常被互换使用, 模型监控 在 在机器学习运维(MLOps) 生命周期中具有 独特但互补的价值。
要实现计算机视觉(CV)的真正可观测性 计算机视觉(CV) 管道中实现真正的可观察性, 系统通常依赖三类主要遥测数据:
通过使用回调函数记录特定内部状态,可增强训练管道的可观察性。 以下示例演示了如何为YOLO26训练管道添加自定义回调: YOLO26 训练会话中添加自定义回调以实时监控 性能指标。
from ultralytics import YOLO
# Load the YOLO26 model
model = YOLO("yolo26n.pt")
# Define a custom callback for observability
def on_train_epoch_end(trainer):
# Access and print specific metrics at the end of each epoch
map50 = trainer.metrics.get("metrics/mAP50(B)", 0)
print(f"Observability Log - Epoch {trainer.epoch + 1}: mAP50 is {map50:.4f}")
# Register the callback and start training
model.add_callback("on_train_epoch_end", on_train_epoch_end)
model.train(data="coco8.yaml", epochs=3)
可观测性对于在动态环境中部署高性能模型至关重要,该环境中 测试数据 可能无法完全匹配 真实世界条件。
现代工作流通常将可观测性直接集成到训练平台中。Ultralytics平台的用户 Ultralytics 可通过内置功能 直观呈现损失曲线、系统性能及数据集分析。此外,该平台还支持与 TensorBoard TensorBoard 和 MLflow 使数据科学家能够 在整个模型生命周期内保持严格的实验追踪与可观测性。