通过合乎道德的人工智能开发战略、工具和真实案例,了解如何识别、减轻和防止人工智能系统中的偏见。
人工智能(AI)中的偏见是指人工智能系统中的系统性和可重复的错误,这些错误会导致不公平的结果,使一个任意的用户群体优先于其他用户群体。当一个人工智能模型反映了它所训练的数据、所使用的算法或参与其开发的人类所做的决定中存在的隐含价值观或偏见时,就会产生偏见。解决人工智能偏见问题对于确保人工智能技术的道德开发和部署至关重要,它影响到模型的性能、可靠性和公众信任,尤其是在计算机视觉(CV)等关键应用领域。
人工智能的偏见通常不是来自人工智能本身,而是来自用于创建人工智能的数据和流程。主要来源包括
人工智能中的偏差会在各种应用中表现出来,从而导致严重后果:
必须将人工智能中的偏见与类似术语区分开来:
减少人工智能偏见需要在整个人工智能开发生命周期中采取多方面的方法:
Ultralytics HUB等平台为定制模型的训练和管理提供了工具,使开发人员能够精心策划数据集,并对其进行监控。 Ultralytics YOLO模型的性能,为开发更公平的人工智能系统做出贡献。在人工智能中建立公平意识并融入公平原则,对于创造公平惠及每个人的人工智能至关重要。