用語集

正則化

L1、L2、ドロップアウト、早期停止などの正則化テクニックを使って、オーバーフィッティングを防ぎ、モデルの汎化を改善します。さらに詳しく

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

正則化は、オーバーフィッティングを防ぎ、未知のデータに対するモデルの汎化能力を向上させるために使用される、機械学習における重要なテクニックである。正則化は、モデルの学習プロセスに制約を追加することで機能し、基本的なパターンを学習する代わりに学習データを記憶するような、過度に複雑なモデルを抑制する。これにより、機械学習の究極の目的である、新しい未知のデータに対してより優れた性能を発揮するモデルが得られる。

レギュラー化とは何か?

要するに、正則化の目的は、学習時に複雑さにペナルティを課すことでモデルを単純化することである。多くのパラメータを持つ複雑なモデルは、学習データのノイズにフィットしやすく、新しいデータでのパフォーマンスが低下する。正則化手法は、モデルが最小化しようとする損失関数にペナルティ項を導入する。このペナルティは、モデルが過度に大きな重みを特徴に割り当てることを抑制し、よりシンプルで一般化可能なモデルを実現します。モデルの複雑さを制御することで、正則化は、学習データへの適合と新しいデータへの汎化のバランスをとるのに役立ち、バイアスと分散のトレードオフに対処します。

正則化の種類

機械学習ではいくつかの正則化手法が一般的に使われており、それぞれがモデルの複雑さにペナルティを与える独自のアプローチを持っている。最もよく使われるものには、以下のようなものがある:

  • L1正則化(Lasso):重みの絶対値に比例するペナルティを加える。これによってモデルのスパース性を高め、いくつかの特徴重みをゼロにして特徴選択を行います。L1正則化は、多くの特徴が無関係である可能性のある高次元データを扱う場合に特に有効です。
  • L2正則化(Ridge):重みの大きさの2乗に比例するペナルティを加える。これはすべての重みをゼロに向かって縮めますが、L1とは異なり、正確にゼロにすることはほとんどありません。L2正則化は、重要度の低い特徴を完全に排除することなく、その影響を軽減し、より安定したロバストモデルに導きます。
  • ドロップアウト:ニューラルネットワークに特有なテクニックで、ドロップアウト層は各トレーニング反復中にニューロンの一部をランダムにゼロに設定する。これにより、ニューロンが学習データに過剰に共適応するのを防ぎ、よりロバストで独立した特徴をネットワークに学習させる。ドロップアウトはオーバーフィッティングを減らし、ディープラーニングモデルの汎化を改善するのに有効である。
  • 早期停止:トレーニング中の検証データセットに対するモデルのパフォーマンスを監視し、検証パフォーマンスが低下し始めたらトレーニングを停止する。これにより、モデルが訓練データを学習しすぎて汎化能力を失うことを防ぎます。早期停止は、単純かつ効果的な正則化の一形態である。

実世界での応用

正則化は、モデルの性能と信頼性を向上させるために、AIや機械学習の様々な領域で広く適用されている。以下にいくつかの例を挙げる:

  • 画像分類: Ultralytics YOLO モデルを使った画像分類タスクでは、特に小規模なデータセットで学習する場合、オーバーフィッティングを防ぐために、損失関数にL2正則化がしばしば採用される。ハイパーパラメータチューニングのような技術は、精度と汎化のバランスを取りながら最適な正則化の強さを見つけるために使用することができます。
  • 自然言語処理(NLP): センチメント分析やテキスト生成にモデルを使用する場合、複雑なニューラル・ネットワークがトレーニング・テキストを記憶するのを防ぎ、その代わりに、より一般的な言語パターンを学習するためには、ドロップアウト正則化が重要になります。その結果、未見の新しいテキストを理解し、生成するのに優れたモデルが生まれます。

正則化のテクニックを適用することで、機械学習の実務家は、実世界のアプリケーションで効果的に機能する、よりロバストで信頼性が高く、汎化可能なAIモデルを構築することができる。正則化と並行してデータ増強のようなテクニックをさらに探求することで、モデルのパフォーマンスとロバスト性をさらに高めることができる。

すべて読む