术语表

规范化

利用 L1、L2、Dropout 和早期停止等正则化技术防止过拟合,提高模型泛化能力。了解更多

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

正则化是机器学习中的一项重要技术,用于防止过度拟合,提高模型对未知数据的泛化能力。它的工作原理是在模型训练过程中添加额外的约束条件,阻止过于复杂的模型记忆训练数据,而不是学习基本模式。这样,模型就能在新的、未见过的数据上表现得更好,而这正是机器学习的最终目标。

什么是正规化?

从本质上讲,正则化的目的是在训练过程中通过惩罚复杂性来简化模型。具有许多参数的复杂模型很容易与训练数据中的噪声相匹配,从而导致在新数据上表现不佳。正则化方法为模型试图最小化的损失函数引入一个惩罚项。这种惩罚会阻止模型为特征分配过大的权重,从而使模型更简单、更具通用性。通过控制模型的复杂性,正则化方法有助于在很好地拟合训练数据和泛化新数据之间取得平衡,从而解决偏差与方差之间的权衡问题。

正则化类型

机器学习中通常会用到几种正则化技术,每种技术都有自己的方法来惩罚模型的复杂性。其中最常用的包括

  • L1 正则化(Lasso):添加与权重绝对值成比例的惩罚。这可以促进模型的稀疏性,有效地将一些特征权重归零,并进行特征选择。L1 正则化在处理高维数据时特别有用,因为在高维数据中,很多特征可能是不相关的。
  • L2 正则化(Ridge):添加与权重大小的平方成正比的惩罚。这会使所有权重趋于零,但与 L1 正则化不同的是,它很少会将权重精确归零。L2 正则化可以在不完全消除不重要特征的情况下减少这些特征的影响,从而建立更稳定、更稳健的模型。
  • 丢弃(Dropout):在每次训练迭代过程中,丢弃层会随机地将一部分神经元设置为零,这是一种神经网络特有的技术。这可以防止神经元过多地共同适应训练数据,并迫使网络学习更稳健、更独立的特征。dropout 可以有效减少深度学习模型的过拟合,提高泛化能力。
  • 早期停止:在训练过程中监控模型在验证数据集上的表现,并在验证表现开始下降时停止训练。这可以防止模型继续过好地学习训练数据,从而失去泛化能力。早期停止是一种简单而有效的正则化形式。

实际应用

正则化被广泛应用于人工智能和机器学习的各个领域,以提高模型的性能和可靠性。下面是几个例子:

  • 图像分类:在使用Ultralytics YOLO 模型的图像分类任务中,损失函数中通常会使用 L2 正则化来防止过拟合,尤其是在较小的数据集上进行训练时。超参数调整等技术可用于找到最佳正则化强度,在准确性和泛化之间取得平衡。
  • 自然语言处理(NLP):当使用模型进行情感分析文本生成时,滤除正则化对于防止复杂的神经网络记忆训练文本并学习更通用的语言模式至关重要。这样,模型就能更好地理解和生成新的、未见过的文本。

通过应用正则化技术,机器学习从业者可以建立更稳健、可靠和可推广的人工智能模型,并在现实世界的应用中有效发挥作用。在正则化的同时进一步探索数据增强等技术,可以进一步提高模型的性能和鲁棒性。

阅读全部