绿色检查
链接复制到剪贴板

关于可解释人工智能(XAI)的所有知识

了解可解释的人工智能 (XAI) 如何在医疗保健、安全、自动驾驶等领域使人工智能预测透明可靠,从而建立信任。

你是否曾经看到过人工智能(AI)工具(如ChatGPT )的回复,并想知道它是如何得出这一结论的?那么,你就遇到了人工智能的 "黑箱 "问题。这是一个术语,指的是人工智能模型处理和分析数据的方式不够清晰。即使是经常与尖端人工智能算法打交道的人工智能工程师和科学家也会发现,要完全理解它们的内部工作原理是一件非常具有挑战性的事情。事实上,只有 22% 的 IT 专业人员真正了解人工智能工具的功能。 

围绕人工智能模型如何做出决策的不确定性可能会带来风险,尤其是在医疗保健领域的计算机视觉金融领域的人工智能等关键领域。不过,在应对这些挑战和提高透明度方面正在取得重大进展。

特别是,可解释人工智能(XAI)只专注于解决这一问题。简而言之,它是一套流程和方法,可帮助人类用户理解和信任复杂的机器学习算法所给出的结果或输出。 

XAI 可以帮助开发人员确保人工智能系统按预期运行。它还能帮助人工智能公司满足监管标准。在本文中,我们将探讨可解释的人工智能及其广泛的使用案例。让我们开始吧!

可解释的人工智能的重要性

可解释性是人工智能工作的关键。在人工智能的子领域--计算机视觉领域,这一点尤为重要,该领域广泛应用于医疗保健等行业。在此类敏感行业使用视觉模型时,重要的是模型的工作原理对每个人都是透明和可解释的。 

计算机视觉模型的可解释性有助于用户更好地理解预测是如何做出的以及预测背后的逻辑。此外,透明度还能让每个人都清楚地了解模型的工作原理,清楚地说明模型的局限性,并确保数据的使用符合道德规范。例如,计算机视觉可以帮助放射科医生有效识别 X 光图像中的健康并发症。 

图 1.使用 Vision AI 分析的胸部 X 光片,显示健康、患病、活动和潜伏肺结核的分类。

然而,仅有精确的视觉系统是不够的。系统还需要能够解释其决定。比方说,系统可以显示图像的哪些部分导致了它的结论--那么,任何输出都会更加清晰。这样的透明度将有助于医疗专业人员反复检查他们的发现,确保病人护理符合医疗标准。 

可解释性至关重要的另一个原因是,它能让人工智能公司承担责任,并在用户中建立信任。值得信赖的人工智能会让用户对人工智能创新的可靠运行、公平决策和负责任地处理数据充满信心。 

计算机视觉中可解释的关键人工智能技术

既然我们已经讨论了可解释性在计算机视觉中的重要性,那么让我们来看看视觉人工智能中使用的关键 XAI 技术。

显著性地图

神经网络是受人脑启发而设计的模型,通过相互连接的节点层(神经元)处理数据,从而识别模式并做出决策。神经网络可用于高精度地解决复杂的计算机视觉问题。即使具有这样的准确性,它们在设计上仍然是黑盒子。 

显著性图是一种 XAI 技术,可用于帮助理解神经网络在分析图像时所看到的内容。它还可用于对模型进行故障诊断,以防模型的性能与预期不符。 

显著性地图的工作原理是关注图像的哪些部分(像素)决定了模型的预测结果。这一过程与反向传播非常相似,即模型从预测回溯到输入。但我们不是根据误差更新模型的权重,而是查看每个像素对预测的 "重要性"。显著性图对于图像分类等计算机视觉任务非常有用。

例如,如果图像分类模型预测一张图像是一只狗,我们就可以查看其显著性图,以了解模型为何认为它是一只狗。这有助于我们确定哪些像素对输出影响最大。突出图会突出显示所有对最终预测图像是狗做出贡献的像素。

图 2.输入图像及其显著性图的并排视图。

类激活映射 (CAM)

类激活图谱是另一种 XAI 技术,用于了解神经网络在进行图像分类预测时会关注图像的哪些部分。它的工作原理与显著性映射类似,但侧重于识别图像中的重要特征,而不是特定像素。特征是模型在图像中检测到的模式或细节,如形状或纹理。

梯度加权类激活映射(Gradient Weighted Class Activation Mapping,Grad-CAM)和 Grad-CAM++ 等方法也是基于同样的理念,并做了一些改进。

下面是 CAM 的工作原理:

  • 在神经网络做出最终决定之前,它会使用一个名为 "全局平均池化"(GAP)的步骤来简化信息。GAP 将检测到的模式中的所有像素合并为一个平均值,为每个特征图(检测到的模式的可视化表示)创建一个摘要。
  • 然后,每个特征图都会被赋予一个权重,以显示其对预测某个类别(如 "鸟 "或 "猫")的重要性。
  • 不过,CAM 的一个局限是,您可能需要重新训练模型来计算这些权重,这可能会很耗时。

Grad-CAM 通过使用梯度对其进行了改进,梯度就像一个信号,显示每个特征图对最终预测的影响程度。这种方法避免了对 GAP 的需求,而且无需重新训练就能更容易地看到模型的重点。Grad-CAM++ 在此基础上更进一步,只关注积极的影响因素,从而使结果更加清晰。

图 3.比较 CAM、Grad-CAM 和 Grad-CAM++。

反事实解释

反事实解释是可解释人工智能的一个重要元素。反事实解释是指通过考虑没有发生但可能发生的其他情景或事件来描述一种情况或结果。它可以展示特定输入变量的变化如何导致不同的结果,例如"如果 X 没有发生,Y 就不会发生"。

说到人工智能和计算机视觉,反事实解释指的是输入(如图像或数据)中所需的最小变化,以导致人工智能模型产生不同的特定结果。例如,改变图像中某个物体的颜色,就能将图像分类模型的预测结果从 "猫 "变为 "狗"。

另一个很好的例子是改变面部识别系统的角度或光线。这可能会导致模型识别出不同的人,从而显示输入的微小变化会如何影响模型的预测。

创建这些解释的最简单方法是试错:你可以随机改变输入的部分内容(如图像或数据的特征),直到人工智能模型给出你想要的结果。其他方法包括与模型无关的方法和特定模型的方法,前者使用优化和搜索技术来寻找变化,后者则依靠内部设置或计算来确定所需的变化。

可解释人工智能在计算机视觉中的应用

既然我们已经探讨了什么是 XAI 及其关键技术,那么我们就可以来看看它在现实生活中是如何应用的。XAI 在许多领域都有不同的应用。让我们深入了解一些凸显其潜力的使用案例:

  • 安全系统:通过检测护照和驾照等身份证件中的变形图像,XAI 可用于增强安全系统。这可确保图像的真实性,加强身份验证流程,并防止敏感应用中的欺诈活动。
图 4.XAI 如何检测变形图像。

  • 自动驾驶:了解自动驾驶汽车的车载视觉人工智能系统的能力和局限性,是汽车在实际道路上部署前进行测试的重要一环。XAI 可以帮助汽车公司更清晰地识别和解决问题。
  • 法律系统:视觉支持的文件分析系统正越来越多地用于司法决策。XAI 支持公平结果,并允许对自动判决进行审查。
  • 野生动物监测:相机陷阱通常用于监测野生动物和收集动物物种数据。XAI 可用于解释人工智能如何对图像中的这些物种进行分类。通过这样做,保护工作可以更加可靠和准确。

关于可解释人工智能的重要启示

可解释的人工智能让人们更容易理解人工智能系统是如何工作的,以及它们为什么会做出某些决定。人工智能模型的透明度可以建立信任和问责制。知识就是力量,有助于更负责任地使用人工智能创新。在医疗保健、安全、自动驾驶和法律系统等关键领域,XAI 可用于帮助开发人员和用户理解人工智能预测、识别错误并确保公平和合乎道德地使用。通过提高人工智能的透明度,XAI 在技术与人类信任之间架起了一座桥梁,使其在现实世界的应用更加安全可靠。

要了解更多信息,请访问我们的GitHub 存储库,并与我们的社区互动。在我们的解决方案页面探索人工智能在自动驾驶汽车农业领域 的应用。🚀

Facebook 徽标Twitter 徽标LinkedIn 徽标复制链接符号

在此类别中阅读更多内容

让我们共同打造人工智能的未来

开始您的未来机器学习之旅