正則化は、機械学習(ML)やディープラーニング(DL)において、オーバーフィッティングを防ぐために使われる重要なテクニックである。これにより、新しい未知のデータに対する汎化がうまくいかなくなる可能性がある。正則化は、モデルの学習プロセスに追加の制約やペナルティを導入し、より単純なパターンを学習するように促します。正則化項を損失関数に追加することで、モデルが単一の特徴に過度に依存したり、特徴に過度に大きな重みを割り当てたりすることを抑制します。
正則化手法にはいくつかの種類があり、それぞれがモデルの複雑さを制御するための独自のアプローチを持っている。最も一般的なものはL1正則化とL2正則化です。
その他の正則化テクニックには以下のようなものがある:
正則化は、ロバストで汎化可能なMLモデルを構築する上で重要な役割を果たす。正則化なしでは、特に高次元データやディープニューラルネットワークのような複雑なモデルアーキテクチャを扱う場合、モデルはオーバーフィットしやすくなります。モデルの複雑さを制御することで、正則化は、新しい未知のデータに対して正確な予測を行うモデルの能力を向上させるのに役立ちます。これは、モデルが学習環境とは異なる環境で展開される可能性がある実世界のアプリケーションにとって極めて重要です。
正則化は、以下のような幅広いMLアプリケーションで使用されている:
正則化は、バイアスと分散のトレードオフ、オーバーフィッティング、アンダーフィッティングなど、MLにおける他の概念と密接に関連している。正則化はモデルの複雑さを制御することでオーバーフィッティングを防ぐのに役立ちますが、バイアスと分散のバランスを取ることが重要です。単純すぎるモデルはデータにアンダーフィットする可能性があり、複雑すぎるモデルはオーバーフィットする可能性があります。ハイパーパラメータのチューニングは、与えられたモデルとデータセットに最適な正則化のレベルを見つけるためによく使われます。
正則化はMLの実務家にとって不可欠な手法である。様々な正則化手法を理解し適用することで、実務家は新しい未知のデータに対して優れた性能を発揮する、よりロバストで汎化可能なモデルを構築することができます。画像データ、テキストデータ、または他のタイプのデータのいずれを扱う場合でも、正則化はMLモデルのパフォーマンスと信頼性を向上させるのに役立ちます。コンピュータ・ビジョンとUltralytics YOLO のような最先端のモデルに関するより多くの洞察については、Ultralytics ブログをご覧ください。