用語集

オーバーフィット

機械学習におけるオーバーフィッティングを特定、防止、対処する方法を学ぶ。モデルの汎化と実世界のパフォーマンスを向上させるテクニックを発見します。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

機械学習におけるオーバーフィッティングとは、モデルが学習データをうまく学習しすぎて、根本的なパターンの代わりにノイズやランダムな揺らぎを捉えてしまうことである。これにより、訓練データセットでは優れた性能を発揮するが、新しい未知のデータへの汎化がうまくいかなくなる。基本的に、モデルは複雑になりすぎ、トレーニングデータに合わせてしまい、概念を理解する代わりに答えを記憶するようになってしまう。これはAIモデルのトレーニングにおいてよくある課題であり、特に物体検出や画像セグメンテーションのようなタスクにUltralytics YOLO 、ニューラルネットワークのような複雑なアルゴリズムが使われる。

オーバーフィッティングを理解する

機械学習モデルは、学習データの誤差を最小化することを目的としているため、オーバーフィッティングが発生する。しかし、モデルが過度に複雑であれば、学習セットに存在するノイズさえも適合させてしまう。このノイズは真のパターンを表しておらず、新しいデータセットでは変化する。特定の日に、ある人の正確な寸法に合わせてスーツを完璧に仕立てるようなものだと考えてほしい。その人の体重が変動したり、他の人が着ようとしたりすると、うまくフィットしないかもしれない。機械学習では、学習データでのこの「完璧なフィット」が、実世界のデータでは柔軟性を欠き、パフォーマンスを低下させる。

オーバーフィッティングの反対はアンダーフィッティングで、モデルが単純すぎてデータの根本的な構造を捉えることができない。アンダーフィッティングのモデルは、学習が十分でないため、トレーニングデータでも新しいデータでもパフォーマンスが低下する。目標は、よくバイアスと分散のトレードオフと呼ばれるバランスを見つけることであり、うまく汎化するモデルを作ることである。

オーバーフィットの実例

  1. 医療画像解析:疾患検出のための医用画像解析において、オーバーフィットモデルは、それがトレーニングされた特定の画像セットの疾患を識別することに非常に優れ、そのデータセットにのみ存在するユニークなアーチファクトやノイズを認識する可能性さえある。しかし、異なる機械や患者集団から得られた新しい医用画像を提示された場合、モデルは一般化できず、実臨床において不正確な診断につながる可能性がある。例えば、MRIスキャンを使用して腫瘍を検出するように訓練されたモデルは、特定のMRIスキャナーの特性に過剰に適合してしまい、たとえ根本的な病理が同じであっても、異なるスキャナーからのスキャンではパフォーマンスが低下する可能性がある。

  2. センチメント分析:顧客レビューを肯定的か否定的かに分類するようにトレーニングされたセンチメント分析モデルを考えてみましょう。過剰にフィットさせると、モデルはトレーニングのレビューデータセットで広く使われている特定の単語やフレーズに過度に敏感になる可能性があります。例えば、トレーニングデータが特定の製品の特徴に言及したレビューを多く含む場合、新しいレビューの文脈が異なっていても、モデルはその特徴の単なる存在を肯定的なセンチメントと誤って関連付けるかもしれません。これは、同じような言語を使用しているが、異なる意見を表現している新しい顧客のフィードバックを誤って分類することにつながります。

オーバーフィッティングの防止

オーバーフィッティングを軽減するのに役立つテクニックがいくつかある:

  • トレーニングデータを増やす:より多様で代表的なトレーニングデータを提供することで、モデルがよりロバストなパターンを学習し、ノイズへの依存を減らすことができる。Ultralytics YOLO データ増強で使用されるようなデータ増強技術は、訓練セットのサイズと変動性を人為的に増加させることができる。
  • モデルを単純化する:ニューラルネットワークのレイヤー数やパラメータ数を減らすなど、モデルの複雑さを減らすことで、ノイズを記憶するのを防ぐことができる。モデルの刈り込みのようなテクニックは、訓練されたネットワーク内の重要度の低い接続を系統的に削除し、単純化することができます。
  • 正則化:正則化手法は、学習プロセスに制約を加え、過度に複雑なモデルにペナルティを与える。一般的な手法には、L1正則化、L2正則化、ドロップアウト、バッチ正規化などがある。
  • 交差検証K-Foldクロスバリデーションのようなテクニックを使用すると、データの複数のサブセットでモデルを訓練して評価することにより、モデルが未知のデータに対してどの程度汎化するかを評価するのに役立ちます。
  • 早期停止:トレーニング中に検証セットでのモデルのパフォーマンスを監視し、検証パフォーマンスが低下し始めたらトレーニングを早期に停止することで、オーバーフィッティングを防ぐことができる。これにより、モデルがトレーニングデータからノイズを学習し続けるのを防ぐことができる。

オーバーフィッティングを理解し対処することで、開発者は様々なアプリケーションのために、より信頼性が高く効果的なAIモデルを構築することができ、トレーニング環境以外の実世界のシナリオでも優れたパフォーマンスを発揮できるようになります。Ultralytics HUBのようなツールは、実験追跡とモデル評価を支援し、モデル開発プロセスにおけるオーバーフィッティングの検出と緩和を支援します。

すべて読む