了解算法偏见、其来源和真实案例。学习减少偏见和建立公平、合乎道德的人工智能系统的策略。
算法偏差是指人工智能(AI)系统中出现的系统性、可重复的错误,导致不公平或歧视性的结果。与纯粹由有缺陷的数据产生的偏差不同,算法偏差源于算法本身的设计、实施或应用。即使输入的训练数据看似平衡,这种情况也可能发生。这是机器学习(ML)和计算机视觉(CV)等领域的一个重要问题,因为它会破坏人工智能系统的可靠性和公平性,影响从产品推荐到金融和医疗保健领域的关键决策等各个方面。正如美国国家标准与技术研究院(NIST)等研究机构所强调的那样,解决这类偏差对于构建可信的人工智能至关重要。
算法偏见虽然经常与数据问题交织在一起,但具体产生于算法的机制:
算法偏差可表现在各种应用中:
将算法偏见与相关术语区分开来很重要:
解决算法偏见问题需要在整个人工智能生命周期中采取积极主动的多方面方法:
通过了解算法偏见的细微差别,并积极努力通过精心设计、严格测试以及遵守人工智能公平性和人工智能伦理原则来减少算法偏见,开发人员可以创造出更可靠、更公平、更有益的人工智能应用。人工智能伙伴关系(Partnership on AI)和算法正义联盟(Algorithmic Justice League)等组织倡导负责任的人工智能开发。像Ultralytics HUB这样的平台和像 Ultralytics YOLO等平台和 Ultralytics YOLO 等模型提供了支持谨慎开发和评估模型的框架,考虑了数据隐私等因素,有助于创建更公平的系统。ACM 公平性、责任和透明度(FAccT)会议是该领域研究的主要场所。