术语表

可解释的人工智能(XAI)

探索可解释的人工智能(XAI):利用可解释的洞察力,做出更明智的人工智能决策,从而建立信任、确保问责制并满足法规要求。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

可解释的人工智能(XAI)包括人工智能(AI)中旨在使人工智能系统产生的决策和预测能够为人类所理解的方法和技术。随着人工智能模型,尤其是计算机视觉(CV)中使用的深度学习神经网络等复杂模型对关键决策的影响越来越大,其内部机制往往像不透明的"黑盒子"。XAI 致力于阐明这些过程,让人们深入了解产出是如何产生的,从而促进信任、实现问责并促进有效的人类监督。

可解释的人工智能为何重要

对 XAI 的需求源于人工智能日益融入各行各业的高风险决策。虽然人工智能模型,如 Ultralytics YOLO等用于物体检测的人工智能模型可以达到极高的准确性,但理解这些模型为何能得出特定结论却至关重要。这种可解释性的缺乏可能会成为人工智能在医疗保健金融等领域的障碍。采用 XAI 的主要动机包括

优势和应用

实施 XAI 有很多好处,包括增强用户信心、简化调试过程以及促进负责任的人工智能部署。XAI 技术可应用于众多领域:

XAI 技术

实现可解释性的方法多种多样,其方法往往各不相同(例如,解释单个预测与解释整体模型行为)。一些常见的技术包括

  • LIME(本地可解释模型-不可知论解释):使用更简单、可解释的模型来近似复杂模型在特定预测周围的局部行为。了解有关 LIME 的更多信息
  • SHAP(SHapley Additive exPlanations):利用合作博弈论的概念,为特定预测的每个特征分配重要性值。发现 SHAP 值
  • 注意力机制:特别是在变形金刚等模型中,注意力分数有时可以显示模型在生成输出时最关注输入数据的哪些部分。

DARPA XAI 计划等研究项目极大地推动了这些技术的发展。

XAI 与相关概念

必须将 XAI 与相关术语区分开来:

  • 人工智能的透明度: 人工智能的透明度是指人工智能系统运作的可见性,包括其架构、训练数据及其性能指标。虽然透明度提供的是基础信息,但 XAI 特别注重为模型做出特定决策或预测的原因生成人类可理解的解释。
  • 可观察性 可观察性是一种更广泛的系统属性,涉及通过检查日志、指标和跟踪等外部输出来了解系统(包括人工智能/ML 模型)内部状态的能力。这对MLOps模型监控至关重要,可实现调试和性能跟踪。XAI 是一个特定的子集,专注于使模型输出背后的推理具有可解释性。

挑战和考虑因素

实现有意义的可解释性可能很复杂。正如"视觉模型的历史"中所讨论的,模型的性能(准确性)和可解释性之间往往存在权衡;高度复杂的模型可能更准确,但却更难解释。此外,公开详细的模型逻辑可能会引起对知识产权或恶意操纵的担忧。人工智能合作伙伴关系等组织致力于应对这些道德和实际挑战。

Ultralytics通过工具和资源促进对模型行为的理解。Ultralytics HUB中的可视化功能和Ultralytics 文档中的详细指南(如YOLO 性能指标的解释)可帮助用户评估和解释模型,例如 Ultralytics YOLOv8.

阅读全部