术语表

人工智能的公平性

用合乎道德、不带偏见的模型确保人工智能的公平性。探索公平人工智能解决方案的工具、战略和Ultralytics YOLO 。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

人工智能的公平性是一个至关重要的领域,致力于确保人工智能系统公平运行,不会延续或放大现有的社会偏见。它涉及开发和部署避免基于种族、性别、年龄、宗教或性取向等敏感属性歧视个人或群体的模型。随着人工智能(AI)系统越来越多地融入各行各业的关键决策过程,解决公平问题对于道德发展、法律合规和建立公众信任至关重要。

了解人工智能的公平性

人工智能中的公平是多方面的,缺乏一个单一的、普遍认同的定义。相反,它包含各种数学形式和伦理考虑,旨在减少不公正的结果。核心挑战在于识别和解决人工智能中的偏见,这种偏见可能来自多个方面,包括倾斜的训练数据(数据集偏见)、有偏见的算法或有缺陷的部署环境。数据中存在的历史偏差会在无意中教会模型复制过去的歧视,而测量偏差则可能源于不同群体的数据收集不一致。认识到这些潜在隐患是建立更公平系统的第一步。不同的公平标准,如人口均等(确保结果独立于敏感属性)或机会均等(确保不同群体的真实阳性率相同),为衡量和争取公平提供了不同的方法,尽管同时实现多个标准可能具有挑战性,正如该领域的研究(如ACM FAccT 论文集强调的那样。

相关性和重要性

人工智能对个人和社会具有深远的潜在影响,因此其公平性的重要性怎么强调都不为过。不公平的人工智能系统可能会在招聘、贷款申请、刑事司法和人工智能医疗保健等高风险领域导致歧视性结果,从而可能剥夺某些群体的机会或基本服务。确保公平不仅是道德方面的考虑,往往也是法律方面的要求,法规越来越多地要求人工智能应用中的问责制和非歧视性(参见NIST 人工智能风险管理框架)。解决公平性问题有助于防止伤害、促进社会公正、培养对人工智能技术的信任,从而鼓励负责任地采用人工智能技术。这与更广泛的人工智能伦理原则相一致,其中包括公平、透明、问责和隐私。

公平在人工智能中的应用

在众多人工智能应用中,嵌入公平性的努力一直在进行。这里有两个例子:

  • 招聘工具的公平性:人工智能用于筛选简历和预测候选人的成功率。如果主要根据反映过去招聘偏见的历史数据(如偏爱来自特定大学或人口统计的候选人)进行训练,人工智能可能会不公平地不利于来自代表性不足群体的合格候选人。公司正在开发公平感知算法和审核工具,如IBM 的 AI Fairness 360,以检测和减少此类偏见,通常使用的技术包括在模型训练过程中重新权衡数据点或添加公平性约束。
  • 面部识别的公平性: 人脸识别系统在不同人口群体中的准确性存在差异,肤色较深的人或女性的准确性往往较低。这可能会在身份验证和执法等应用中造成严重后果。算法正义联盟(Algorithmic Justice League)等研究机构强调了这些问题,促使人们努力创建更多样化的训练数据集,并开发出在不同人群中表现更一致的模型。数据增强和使用更具包容性的基准数据集等技术是至关重要的步骤。

区分公平与相关概念

虽然人工智能中的公平性与相邻的概念密切相关,但却有所不同:

  • 人工智能伦理这是一个更广泛的领域,涉及人工智能开发和使用的道德原则和指导方针,包括公平、问责、透明、隐私和安全。公平是人工智能伦理的一个重要组成部分。
  • 算法偏差特指人工智能系统中造成不公平结果的系统性和可重复的错误。人工智能的公平性是指识别、衡量和减轻算法偏见的积极努力。
  • 可解释的人工智能(XAI)XAI 专注于让人类理解人工智能的决策。虽然 XAI 可以通过揭示模型如何工作来帮助识别潜在的公平性问题,但它本质上并不能保证公平性。不过,通过 XAI 实现透明往往对评估和确保公平至关重要。

实现公平

实现公平性需要在整个人工智能生命周期中结合技术和程序方法。这包括仔细的数据收集和注释、使用多样化和有代表性的数据集、采用公平感知的机器学习算法、使用适当的公平性指标进行严格的测试和模型评估,以及在部署后进行持续监控。Google的 What-If 工具等工具可以让从业者在不同的数据片段中探索模型行为。Ultralytics HUB 等平台为定制模型的训练和管理提供了便利,使用户能够应用数据增强等技术,并对模型进行评估,例如 Ultralytics YOLO11等模型的性能差异,从而支持开发更公平的计算机视觉解决方案。

阅读全部