探索可解释的人工智能(XAI):利用可解释的洞察力,做出更明智的人工智能决策,从而建立信任、确保问责制并满足法规要求。
可解释的人工智能(XAI)包括人工智能(AI)中旨在使人工智能系统产生的决策和预测能够为人类所理解的方法和技术。随着人工智能模型,尤其是计算机视觉(CV)中使用的深度学习神经网络等复杂模型对关键决策的影响越来越大,其内部机制往往像不透明的"黑盒子"。XAI 致力于阐明这些过程,让人们深入了解产出是如何产生的,从而促进信任、实现问责并促进有效的人类监督。
对 XAI 的需求源于人工智能日益融入各行各业的高风险决策。虽然人工智能模型,如 Ultralytics YOLO等用于物体检测的人工智能模型可以达到极高的准确性,但理解这些模型为何能得出特定结论却至关重要。这种可解释性的缺乏可能会成为人工智能在医疗保健和金融等领域的障碍。采用 XAI 的主要动机包括
实施 XAI 有很多好处,包括增强用户信心、简化调试过程以及促进负责任的人工智能部署。XAI 技术可应用于众多领域:
实现可解释性的方法多种多样,其方法往往各不相同(例如,解释单个预测与解释整体模型行为)。一些常见的技术包括
DARPA XAI 计划等研究项目极大地推动了这些技术的发展。
必须将 XAI 与相关术语区分开来:
实现有意义的可解释性可能很复杂。正如"视觉模型的历史"中所讨论的,模型的性能(准确性)和可解释性之间往往存在权衡;高度复杂的模型可能更准确,但却更难解释。此外,公开详细的模型逻辑可能会引起对知识产权或恶意操纵的担忧。人工智能合作伙伴关系等组织致力于应对这些道德和实际挑战。
Ultralytics通过工具和资源促进对模型行为的理解。Ultralytics HUB中的可视化功能和Ultralytics 文档中的详细指南(如YOLO 性能指标的解释)可帮助用户评估和解释模型,例如 Ultralytics YOLOv8.