术语表

人工智能中的偏见

通过合乎道德的人工智能开发战略、工具和真实案例,了解如何识别、减轻和防止人工智能系统中的偏见。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

人工智能(AI)中的偏见是指人工智能系统中的系统性和可重复的错误,这些错误会导致不公平的结果,使一个任意的用户群体优先于其他用户群体。当一个人工智能模型反映了它所训练的数据、所使用的算法或参与其开发的人类所做的决定中存在的隐含价值观或偏见时,就会产生偏见。解决人工智能偏见问题对于确保人工智能技术的道德开发和部署至关重要,它影响到模型的性能、可靠性和公众信任,尤其是在计算机视觉(CV)等关键应用领域。

艾滋病偏见的来源

人工智能的偏见通常不是来自人工智能本身,而是来自用于创建人工智能的数据和流程。主要来源包括

  • 数据集偏差这是一个主要驱动因素,当训练数据不能代表人工智能将遇到的真实世界场景或人口统计数据时就会出现这种情况。这可能涉及某些群体代表性不足、数据收集方法偏差或数据标记错误。您可以在我们的博文《了解人工智能偏差和数据集偏差》中了解有关数据集影响的更多信息。
  • 算法偏差算法的选择或设计方式可能会带来偏差。某些算法可能在本质上偏向于特定的模式或结果,从而导致即使在数据平衡的情况下也会出现预测偏差。
  • 人为偏见:开发人员自身有意识或无意识的偏见会影响数据选择、特征工程、模型评估指标和部署决策,从而将不公平植入系统。如需深入了解公平性方面的考虑,请参阅《人工智能伦理》

真实案例

人工智能中的偏差会在各种应用中表现出来,从而导致严重后果:

  1. 面部识别系统早期的人脸识别模型对肤色较深的人或女性的识别准确率往往较低,这主要是因为训练数据集以肤色较浅的男性为主。这种差异引起了人们对安全和身份验证等应用中公平性的担忧。NIST等机构的研究记录了这些性能差异。
  2. 医疗保健中的人工智能用于医学图像分析的人工智能模型,对于训练数据中代表性不足的人口群体来说,其性能可能会大打折扣。例如,主要针对浅色皮肤训练的皮肤癌检测算法可能无法准确识别深色皮肤上的黑色素瘤,从而可能延误诊断和治疗。

区分 Ai 中的偏差与相关概念

必须将人工智能中的偏见与类似术语区分开来:

  • 数据集偏差特指用于训练的数据中存在的问题(如缺乏多样性)。这是造成人工智能偏差的一个主要原因,它描述了模型行为中由此产生的系统性不公平。
  • 算法偏差这主要是指源于模型结构或学习过程本身的偏差,是造成更广泛的人工智能偏差现象的另一个潜在原因
  • 偏差-方差权衡这是机器学习(ML)中关于模型误差的一个基本概念。这里的 "偏差 "指的是学习算法中不正确的假设所产生的误差(导致拟合不足),有别于人工智能中 "偏差 "的社会或伦理影响。

解决 Ai 偏差问题

减少人工智能偏见需要在整个人工智能开发生命周期中采取多方面的方法:

  • 多样化的代表性数据:收集高质量、多样化的数据集(如Ultralytics 数据集系列中的数据集)是基础。数据增强等技术也有助于提高数据的代表性。
  • 公平性指标和审计:不仅要评估模型的整体准确性,还要使用公平性指标评估不同子群的表现。帮助审核模型是否存在偏差的工具和框架正在出现。
  • 可解释的人工智能(XAI)了解模型做出某些预测的原因有助于识别和纠正有偏见的行为。
  • 包容性团队:多元化的开发团队不容易忽视潜在的偏见。

Ultralytics HUB等平台为定制模型的训练和管理提供了工具,使开发人员能够精心策划数据集,并对其进行监控。 Ultralytics YOLO模型的性能,为开发更公平的人工智能系统做出贡献。在人工智能中建立公平意识并融入公平原则,对于创造公平惠及每个人的人工智能至关重要。

阅读全部