了解可解释的人工智能 (XAI) 如何在医疗保健、安全、自动驾驶等领域使人工智能预测透明可靠,从而建立信任。
你是否曾经看到过人工智能(AI)工具(如ChatGPT )的回复,并想知道它是如何得出这一结论的?那么,你就遇到了人工智能的 "黑箱 "问题。这是一个术语,指的是人工智能模型处理和分析数据的方式不够清晰。即使是经常与尖端人工智能算法打交道的人工智能工程师和科学家也会发现,要完全理解它们的内部工作原理是一件非常具有挑战性的事情。事实上,只有 22% 的 IT 专业人员真正了解人工智能工具的功能。
围绕人工智能模型如何做出决策的不确定性可能会带来风险,尤其是在医疗保健领域的计算机视觉和金融领域的人工智能等关键领域。不过,在应对这些挑战和提高透明度方面正在取得重大进展。
特别是,可解释人工智能(XAI)只专注于解决这一问题。简而言之,它是一套流程和方法,可帮助人类用户理解和信任复杂的机器学习算法所给出的结果或输出。
XAI 可以帮助开发人员确保人工智能系统按预期运行。它还能帮助人工智能公司满足监管标准。在本文中,我们将探讨可解释的人工智能及其广泛的使用案例。让我们开始吧!
可解释性是人工智能工作的关键。在人工智能的子领域--计算机视觉领域,这一点尤为重要,该领域广泛应用于医疗保健等行业。在此类敏感行业使用视觉模型时,重要的是模型的工作原理对每个人都是透明和可解释的。
计算机视觉模型的可解释性有助于用户更好地理解预测是如何做出的以及预测背后的逻辑。此外,透明度还能让每个人都清楚地了解模型的工作原理,清楚地说明模型的局限性,并确保数据的使用符合道德规范。例如,计算机视觉可以帮助放射科医生有效识别 X 光图像中的健康并发症。
然而,仅有精确的视觉系统是不够的。系统还需要能够解释其决定。比方说,系统可以显示图像的哪些部分导致了它的结论--那么,任何输出都会更加清晰。这样的透明度将有助于医疗专业人员反复检查他们的发现,确保病人护理符合医疗标准。
可解释性至关重要的另一个原因是,它能让人工智能公司承担责任,并在用户中建立信任。值得信赖的人工智能会让用户对人工智能创新的可靠运行、公平决策和负责任地处理数据充满信心。
既然我们已经讨论了可解释性在计算机视觉中的重要性,那么让我们来看看视觉人工智能中使用的关键 XAI 技术。
神经网络是受人脑启发而设计的模型,通过相互连接的节点层(神经元)处理数据,从而识别模式并做出决策。神经网络可用于高精度地解决复杂的计算机视觉问题。即使具有这样的准确性,它们在设计上仍然是黑盒子。
显著性图是一种 XAI 技术,可用于帮助理解神经网络在分析图像时所看到的内容。它还可用于对模型进行故障诊断,以防模型的性能与预期不符。
显著性地图的工作原理是关注图像的哪些部分(像素)决定了模型的预测结果。这一过程与反向传播非常相似,即模型从预测回溯到输入。但我们不是根据误差更新模型的权重,而是查看每个像素对预测的 "重要性"。显著性图对于图像分类等计算机视觉任务非常有用。
例如,如果图像分类模型预测一张图像是一只狗,我们就可以查看其显著性图,以了解模型为何认为它是一只狗。这有助于我们确定哪些像素对输出影响最大。突出图会突出显示所有对最终预测图像是狗做出贡献的像素。
类激活图谱是另一种 XAI 技术,用于了解神经网络在进行图像分类预测时会关注图像的哪些部分。它的工作原理与显著性映射类似,但侧重于识别图像中的重要特征,而不是特定像素。特征是模型在图像中检测到的模式或细节,如形状或纹理。
梯度加权类激活映射(Gradient Weighted Class Activation Mapping,Grad-CAM)和 Grad-CAM++ 等方法也是基于同样的理念,并做了一些改进。
下面是 CAM 的工作原理:
Grad-CAM 通过使用梯度对其进行了改进,梯度就像一个信号,显示每个特征图对最终预测的影响程度。这种方法避免了对 GAP 的需求,而且无需重新训练就能更容易地看到模型的重点。Grad-CAM++ 在此基础上更进一步,只关注积极的影响因素,从而使结果更加清晰。
反事实解释是可解释人工智能的一个重要元素。反事实解释是指通过考虑没有发生但可能发生的其他情景或事件来描述一种情况或结果。它可以展示特定输入变量的变化如何导致不同的结果,例如"如果 X 没有发生,Y 就不会发生"。
说到人工智能和计算机视觉,反事实解释指的是输入(如图像或数据)中所需的最小变化,以导致人工智能模型产生不同的特定结果。例如,改变图像中某个物体的颜色,就能将图像分类模型的预测结果从 "猫 "变为 "狗"。
另一个很好的例子是改变面部识别系统的角度或光线。这可能会导致模型识别出不同的人,从而显示输入的微小变化会如何影响模型的预测。
创建这些解释的最简单方法是试错:你可以随机改变输入的部分内容(如图像或数据的特征),直到人工智能模型给出你想要的结果。其他方法包括与模型无关的方法和特定模型的方法,前者使用优化和搜索技术来寻找变化,后者则依靠内部设置或计算来确定所需的变化。
既然我们已经探讨了什么是 XAI 及其关键技术,那么我们就可以来看看它在现实生活中是如何应用的。XAI 在许多领域都有不同的应用。让我们深入了解一些凸显其潜力的使用案例:
可解释的人工智能让人们更容易理解人工智能系统是如何工作的,以及它们为什么会做出某些决定。人工智能模型的透明度可以建立信任和问责制。知识就是力量,有助于更负责任地使用人工智能创新。在医疗保健、安全、自动驾驶和法律系统等关键领域,XAI 可用于帮助开发人员和用户理解人工智能预测、识别错误并确保公平和合乎道德地使用。通过提高人工智能的透明度,XAI 在技术与人类信任之间架起了一座桥梁,使其在现实世界的应用更加安全可靠。
要了解更多信息,请访问我们的GitHub 存储库,并与我们的社区互动。在我们的解决方案页面探索人工智能在自动驾驶汽车和农业领域 的应用。🚀