機械学習におけるオーバーフィッティングを特定、防止、対処する方法を学ぶ。モデルの汎化と実世界のパフォーマンスを向上させるテクニックを発見します。
機械学習(ML)におけるオーバーフィッティングは、モデルが学習データをうまく学習しすぎて、根本的なパターンの代わりにノイズやランダムな揺らぎを捉えてしまう場合に起こる。これは、訓練データセットでは優れた性能を発揮するが、新しい未知のデータへの汎化がうまくいかないことにつながる。本質的に、モデルは複雑になりすぎ、トレーニング例に特化して調整されるようになり、概念を理解するのではなく、答えを暗記するようなものだ。これはAIモデルをトレーニングする際によくある課題であり、特に物体検出や 画像セグメンテーションのようなタスクにUltralytics YOLO 使用されているニューラルネットワークのような複雑なアルゴリズムではよくあることだ。
過剰適合は、MLモデルが訓練データ上の誤差を最小化することを目的としているために生じる。モデルが過剰な複雑さ(例えば、ディープラーニングモデルではパラメータやレイヤーが多すぎる)を持っている場合、トレーニングセットに存在するランダムなノイズでさえもフィットしてしまう可能性がある。このノイズは真の基本パターンを表しておらず、新しいデータセットに存在する可能性は低い。ある特定の日に、その人の正確なサイズに合わせて完璧にスーツを仕立てたとしよう。MLでは、訓練データでのこの「完璧なフィット」は、柔軟性に欠け、実世界のデータでのパフォーマンスが悪くなる。
逆の問題はアンダーフィットで、モデルが単純すぎてデータの根本的な構造を捉えることができない。アンダーフィットのモデルは、学習が十分でないため、トレーニングデータでも新しいデータでもパフォーマンスが低下する。目標は最適なバランスを見つけることであり、しばしばバイアスと分散のトレードオフの文脈で議論される。高い分散はオーバーフィッティングの特徴であり、高いバイアスはアンダーフィッティングの特徴である。このトレードオフの概念を理解することは、モデル開発において非常に重要です。
オーバーフィッティングは、通常、訓練データセットと別の検証データセットにおけるモデルの性能を比較することで特定される。
いくつかのテクニックは、オーバーフィッティングを緩和し、モデルの汎化を改善するのに役立つ:
オーバーフィッティングを理解し対処することで、開発者はより信頼性が高く効果的なAIモデルを構築することができます。Ultralytics HUBのようなツールは、実験追跡とモデル評価を支援し、モデル開発のライフサイクルにおけるオーバーフィッティングの検出と緩和を支援します。