用合乎道德、不带偏见的模型确保人工智能的公平性。探索公平人工智能解决方案的工具、战略和Ultralytics YOLO 。
人工智能的公平性是一个至关重要的领域,致力于确保人工智能系统公平运行,不会延续或放大现有的社会偏见。它涉及开发和部署避免基于种族、性别、年龄、宗教或性取向等敏感属性歧视个人或群体的模型。随着人工智能(AI)系统越来越多地融入各行各业的关键决策过程,解决公平问题对于道德发展、法律合规和建立公众信任至关重要。
人工智能中的公平是多方面的,缺乏一个单一的、普遍认同的定义。相反,它包含各种数学形式和伦理考虑,旨在减少不公正的结果。核心挑战在于识别和解决人工智能中的偏见,这种偏见可能来自多个方面,包括倾斜的训练数据(数据集偏见)、有偏见的算法或有缺陷的部署环境。数据中存在的历史偏差会在无意中教会模型复制过去的歧视,而测量偏差则可能源于不同群体的数据收集不一致。认识到这些潜在隐患是建立更公平系统的第一步。不同的公平标准,如人口均等(确保结果独立于敏感属性)或机会均等(确保不同群体的真实阳性率相同),为衡量和争取公平提供了不同的方法,尽管同时实现多个标准可能具有挑战性,正如该领域的研究(如ACM FAccT 论文集)所强调的那样。
人工智能对个人和社会具有深远的潜在影响,因此其公平性的重要性怎么强调都不为过。不公平的人工智能系统可能会在招聘、贷款申请、刑事司法和人工智能医疗保健等高风险领域导致歧视性结果,从而可能剥夺某些群体的机会或基本服务。确保公平不仅是道德方面的考虑,往往也是法律方面的要求,法规越来越多地要求人工智能应用中的问责制和非歧视性(参见NIST 人工智能风险管理框架)。解决公平性问题有助于防止伤害、促进社会公正、培养对人工智能技术的信任,从而鼓励负责任地采用人工智能技术。这与更广泛的人工智能伦理原则相一致,其中包括公平、透明、问责和隐私。
在众多人工智能应用中,嵌入公平性的努力一直在进行。这里有两个例子:
虽然人工智能中的公平性与相邻的概念密切相关,但却有所不同:
实现公平性需要在整个人工智能生命周期中结合技术和程序方法。这包括仔细的数据收集和注释、使用多样化和有代表性的数据集、采用公平感知的机器学习算法、使用适当的公平性指标进行严格的测试和模型评估,以及在部署后进行持续监控。Google的 What-If 工具等工具可以让从业者在不同的数据片段中探索模型行为。Ultralytics HUB 等平台为定制模型的训练和管理提供了便利,使用户能够应用数据增强等技术,并对模型进行评估,例如 Ultralytics YOLO11等模型的性能差异,从而支持开发更公平的计算机视觉解决方案。