绿色检查
链接复制到剪贴板

了解视觉人工智能系统中的人工智能偏差和数据集偏差

了解数据集偏差如何影响计算机视觉模型,以及Ultralytics YOLO11 如何通过智能增强和灵活的训练工具帮助减少偏差。

人工智能(AI)模型正在改变我们解决问题的方式,但它们并不完美。从自动驾驶汽车到医疗诊断工具,我们都依赖人工智能来解读数据并做出决策。如果数据本身存在缺陷,会发生什么呢?

人工智能中的偏差指的是模型中出现的不一致模式,通常没有人意识到这一点。这些偏差会导致模型做出不准确、不一致甚至有害的预测。在计算机视觉领域,偏差通常可追溯到一个关键来源:数据集。如果用于训练模型的数据不平衡或缺乏代表性,模型就会反映出这些差距。

让我们来详细了解一下数据集偏差是如何形成的,它如何影响计算机视觉模型,以及开发人员可以采取哪些措施来检测和防止数据集偏差。我们还将展示 Ultralytics YOLO11等模型如何支持建立更公平的人工智能系统,这些系统能更好地泛化,这意味着它们在新的、未见过的数据上表现良好,并能更平等地为每个人服务。

什么是人工智能偏见?

人工智能偏差指的是人工智能系统中的持续性错误,这种错误会导致结果偏斜或不准确。简单地说,就是模型开始偏爱一种视觉输入而不是其他类型,这影响了模型的公平性 ,不是因为它表现得更好,而是因为它是如何训练出来的。

这种情况在计算机视觉中尤为常见,因为模型是从视觉数据中学习的。如果一个数据集主要包括一种物体、场景或人物,那么模型就会学习到只对这些情况有效的模式。

想象一下,一个模型主要是在大城市的交通图像上训练出来的。如果将其部署在农村地区,它可能会对不寻常的道路布局进行错误分类,或者检测不到它从未见过的车辆类型。这就是人工智能偏差的表现。它会导致准确率降低和泛化能力受限,泛化能力是指模型在新的或不同的输入上表现良好的能力。

在医疗保健或安全等对准确性要求极高的应用中,这些失误不仅令人沮丧,还可能带来危险。解决偏差问题关系到性能、可靠性和安全性。

数据集偏差如何影响模型行为

当我们谈论数据集偏差时,我们指的是用于训练模型的数据的不平衡或局限性。当训练数据不能充分反映模型所要模拟的真实世界多样性时,就会出现数据集偏差。

计算机视觉模型并不了解世界。它们理解的是模式。如果它们看到的狗的图像只是后院的金毛寻回犬,那么它们可能无法识别雪道上的哈士奇。

图 1.重新权衡源数据有助于提高模型精度。

这凸显了数据集偏差带来的主要挑战之一。模型会根据所展示的内容建立自己的理解。如果训练数据不能反映真实世界的各种情况,模型的行为就会变得狭隘,在不熟悉的条件下就会变得不那么有效。

在不同的数据集上进行测试时,图像分类器的表现往往比在不同的数据集上训练时差很多,即使这两个数据集是为相同的任务构建的。光线、背景或摄像机角度的微小变化都会导致准确率的明显下降。这说明数据集的偏差很容易影响模型的泛化能力。

这些不是边缘案例。它们是数据管道与模型架构同等重要的信号。

人工智能训练数据中的偏差类型

在开发过程中,通常在数据收集、标记或整理过程中,会以微妙的方式出现偏差。以下是可能影响训练数据的三种主要偏差类型:

选择偏差

当数据集不能代表实际使用中的各种情况时,就会出现选择偏差。如果行人检测模型只在白天清晰的图像上进行训练,那么它在夜间或雾中的表现就不会很好。因此,选择过程会遗漏一些关键案例。

图 2.只选择非多样性子集的选择偏差直观示意图。

当数据集因数据收集方式而无法捕捉真实世界的全部场景时,就会出现这种偏差。例如,仅在白天清晰图像上训练的行人检测模型在雾、雪或弱光环境下可能会失效。在理想或便利的条件下收集数据时,往往会出现这种情况,从而限制了模型在不同环境中的表现能力。将收集工作扩展到更多样化的环境有助于减少这种偏差。

这种情况也可能出现在从在线资源建立的数据集中,因为在这些数据集中,内容可能严重偏向于某些地区、语言或社会经济背景。如果不刻意使数据集多样化,模型就会继承这些局限性。

标签偏差

当人工标注者使用错误或不一致的标签时,就会出现标签偏差。错误标签看似无害,但如果经常发生,模型就会开始学习错误的关联。

不一致的标注会在训练过程中混淆模型,尤其是在物体检测等复杂任务中。例如,一个标注者可能会将一辆车标注为 "汽车",而另一个标注者则会将类似的车辆标注为 "卡车"。这些不一致会影响模型学习可靠模式的能力,从而降低推理的准确性。

图 3.数据管道中的偏差源于真实世界的不平衡。

标注指南不明确或对同一数据的不同解释也可能导致标注偏差。建立有据可查的标签标准并进行质量控制检查可以大大减少这些挑战。

对标注者进行持续培训和使用共识标注(即多个标注者对每个样本进行审查)是最大限度减少标注偏差和提高数据集质量的两种有效策略。

代表性偏见

代表性偏差往往反映了更广泛的社会不平等。在较富裕或联系较紧密地区收集的数据可能无法反映代表性较低人群或环境的多样性。要消除这种偏差,就必须有意识地纳入被忽视的群体和环境。

当某些群体或类别在数据集中的代表性不足时,就会出现代表性偏差。这些可能包括人口群体、物体类别或环境条件。如果一个模型只看到一种肤色、一种物体类型或一种背景风格,那么它的预测结果就会反映出这种不平衡。

当某些组别或类别的数量远远少于其他组别或类别时,我们就能观察到这种偏差。这会使模型的预测偏向于数据集中的主要实例。例如,主要针对某一人群训练的人脸识别模型可能很难在所有用户中准确识别。选择偏差与数据种类有关,而代表性偏差则与群体间的平衡有关。

多样性审计和有针对性的数据扩展策略有助于确保所有相关的人口统计数据和类别在整个培训数据集中得到适当体现。

如何检测和减少数据集偏差

在现实世界的部署中,人工智能的偏见并不仅仅意味着一些错误的预测。它可能会导致系统对某些人运行良好,但对所有人却并非如此。

在汽车人工智能中,检测模型在不同行人群体中的表现可能不一致,从而导致代表性不足的个体的安全系数降低。问题不在于模型的意图。而是它所训练的视觉输入。即使在农业领域,物体检测的偏差也可能意味着在不同的光照或天气条件下对农作物的识别能力较差。这些都是在有限或不平衡数据集上训练模型的常见后果。 

解决人工智能偏差问题,首先要知道从哪里入手。如果您的训练集缺少关键示例或过度代表一个狭窄的范围,您的模型就会反映出这些差距。这就是为什么人工智能中的偏差检测是每个开发管道中的关键步骤。

图 4.减少人工智能偏见和提高公平性的关键步骤。

从分析数据集开始。查看不同类别、环境、光照、物体比例和人口统计的分布情况。如果一个类别占主导地位,那么您的模型在其他类别上的表现可能会不尽如人意。

其次是性能。模型在某些设置或特定对象类型下是否表现较差?如果是这样,这就是学习偏差的迹象,通常会指向数据。

切片级评估是关键。一个模型的平均准确率可能达到 90%,但在特定组或特定条件下却只有 60%。如果不检查这些片段,就永远不会知道。

在训练和评估过程中使用公平性指标是另一个强大的工具。这些指标超越了标准的准确率分数,可评估模型在不同数据子集中的表现。它们有助于发现那些可能被忽视的盲点。

数据集构成和模型测试的透明性能带来更好的模型。

通过数据多样性和扩增提高公平性

一旦发现偏见,下一步就是缩小差距。最有效的方法之一就是增加人工智能模型的数据多样性。这意味着要从代表性不足的场景中收集更多样本,无论是来自不同人群的医学影像,还是不寻常的环境条件。

增加数据可能很有价值,尤其是在增加多样性的情况下。然而,提高公平性还取决于收集正确类型的示例。这些示例应该反映出模型在现实世界中可能遇到的变化。

数据增强是另一种有价值的策略。翻转、旋转、调整照明和缩放对象有助于模拟不同的真实世界条件。扩增不仅能增加数据集的多样性,还能帮助模型更好地适应外观、光照和环境的变化。

大多数现代培训管道都默认包含增强功能,但战略性的使用,例如根据特定任务的需求进行重点调整,才能使增强功能发挥公平有效的作用。

利用合成数据填补空白

合成数据是指模拟真实世界实例的人工生成数据。当某些场景过于罕见或过于敏感而无法在野外捕捉时,它可以成为一种有用的工具。

例如,如果您要建立一个模型来检测机器中的罕见缺陷或边缘交通违规行为,您可以使用合成数据来模拟这些情况。这样,您的模型就有机会从训练集中可能不会经常遇到的事件中学习。

研究发现,在训练中引入有针对性的合成数据可以减少数据集的偏差,提高不同人口群体和环境的性能。

合成数据与真实世界样本配对时效果最佳。它是对数据集的补充,而不是替代。

YOLO11 如何支持伦理人工智能

建立无偏见的人工智能模型还取决于您使用的工具。YOLO11 设计灵活,易于微调,适应性强,非常适合减少数据集偏差。

YOLO11 在训练模型时支持先进的数据增强技术,可引入不同的图像上下文和混合示例,以提高模型的泛化能力并减少过拟合。

YOLO11 还改进了骨干和颈部结构,以实现更有效的特征提取。这一升级增强了模型检测细粒度细节的能力,这对于标准模型可能难以解决的代表性不足或边缘情况至关重要。

由于YOLO11 易于在边缘和云环境中重新训练和部署,因此团队可以找出性能差距,并在现场发现偏差时快速更新模型。

公平人工智能不是一次性目标。它是一个评估、学习和调整的循环。像YOLO11 这样的工具有助于让这个周期更快、更有成效。

主要收获

人工智能的偏差影响着从公平性到性能的方方面面。计算机视觉偏差往往源于数据集的收集、标记和平衡方式。幸运的是,有一些行之有效的方法可以检测和减轻偏见。

首先要审核数据,并在不同场景下测试模型性能。使用有针对性的数据收集、增强和合成数据来创建更好的训练覆盖范围。

YOLO11 支持这种工作流程,使其更容易训练自定义模型、应用强大的增强技术,并在发现偏差时快速做出反应。

建立公平的人工智能不仅是正确的做法。它也是建立更智能、更可靠系统的方法。

加入我们不断壮大的社区!探索我们的GitHub 仓库,了解更多有关人工智能的信息。准备好开始自己的计算机视觉项目了吗?查看我们的许可选项。访问我们的解决方案页面,了解制造业中的人工智能农业中的视觉人工智能! 

Facebook 徽标Twitter 徽标LinkedIn 徽标复制链接符号

在此类别中阅读更多内容

让我们共同打造人工智能的未来

开始您的未来机器学习之旅