利用 L1、L2、Dropout 和早期停止等正则化技术防止过拟合,提高模型泛化能力。了解更多
正则化是机器学习(ML)中使用的一系列技术,旨在防止一个常见的问题,即过拟合。当模型过于精确地学习训练数据的细节,包括噪音和随机波动时,就会出现过拟合。过度关注训练数据会阻碍模型在新的、未见过的数据上表现良好,这种能力被称为泛化。正则化方法通过增加与模型复杂度相关的惩罚,鼓励模型学习更有可能广泛应用的简单模式。这对于开发强大的人工智能模型至关重要,尤其是在计算机视觉(CV)和自然语言处理(NLP)等领域。
正则化对于训练可靠的 ML 模型至关重要,尤其是像深度学习(DL)模型和神经网络(NN)这样的复杂模型。如果没有正则化,这些模型可能只是简单地记忆训练示例,而不是学习底层模式。这会导致训练集上的准确率很高,但在验证数据上进行评估或部署到实际场景中时,准确率却很低。通过在损失函数中加入惩罚项或修改训练过程,正则化有助于管理模型权重的大小。这可以有效简化模型,增强其泛化能力。在很好地拟合数据和保持模型简洁性之间的这种谨慎平衡,是偏差-方差权衡的一个关键方面。对于诸如 Ultralytics YOLO等模型而言,应用正则化技术对于在实时物体检测等要求苛刻的任务中实现高性能大有裨益。
有几种正则化技术被广泛采用:
正则化技术应用于众多人工智能领域:
将正则化与其他相关的 ML 概念区分开来非常重要: