用語集

アンダーフィット

機械学習モデルにおけるアンダーフィッティングを特定、防止、対処する方法を、専門家のヒント、戦略、実例を用いて学びます。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

機械学習(ML)の領域では、最適なモデル性能を達成するには、単純さと複雑さのバランスを見つける必要がある。アンダーフィッティングは一般的な問題で、モデルが単純すぎて学習データに存在する基本的なパターンを捉えることができない。これは、モデルが効果的に学習できないことを意味し、学習したデータだけでなく、新しい未知のデータでもパフォーマンスが低下します。アンダーフィットモデルは、データ内の関係を正確に表現するのに必要な能力を欠いている。

アンダーフィットの原因は?

いくつかの要因が、アンダーフィットモデルにつながる可能性がある:

  • モデルの複雑さが不十分:選択したモデル・アーキテクチャがタスクに対して単純すぎる可能性がある。例えば、複雑で非線形なデータに対して線形モデルを使ったり、層やニューロンの数が少なすぎるニューラルネットワークを使ったりする。モデルの複雑さを理解することが重要です。
  • 不十分な特徴:モデルに提供される入力特徴量には、正確な予測を行うのに十分な関連情報が含まれていない可能性がある。これを防ぐには、効果的な特徴エンジニアリングが重要です。
  • トレーニング不足:モデルは十分なエポック数訓練されていない可能性がある。つまり、訓練データのパターンを学習する機会が十分でないことを意味する。
  • 正則化のやり過ぎ正則化技術はオーバーフィッティングを防ぐために使用されるが、正則化技術を積極的に適用しすぎると、モデルを過度に制約し、データ・パターンを学習する能力を妨げ、アンダーフィッティングを引き起こす可能性がある。

アンダーフィットの特定

アンダーフィッティングは通常、トレーニング中とトレーニング後のモデルのパフォーマンスを評価することで診断される:

  • トレーニングエラーが高い:学習したデータでさえも、モデルの性能が低い。accuracyprecisionrecallなどのパフォーマンス指標は低く、損失関数の値は高いままです。
  • 高い検証エラー:このモデルは検証データでのパフォーマンスも悪く、一般的なパターンを学習していないことを示している。
  • 学習曲線:トレーニングセットと検証セットにおけるモデルの誤差を経時的にプロット(学習曲線)すると、両方の曲線が高い誤差レベルでプラトーになる場合、アンダーフィッティングを明らかにすることができる。物体検出のような特定のタスクについては、YOLO パフォーマンス・メトリクスに関するガイドを参照してください。

アンダーフィットへの対応

アンダーフィッティングを克服するには、いくつかの戦略がある:

  • モデルの複雑さを増す:より強力なモデルを使用する。例えば、ニューラル・ネットワークに層やニューロンを追加したり、Ultralticsで利用できるような、より洗練されたアルゴリズムを選択したりする。 Ultralytics YOLOファミリーのような、より洗練されたアルゴリズムを選択する。
  • フィーチャーエンジニアリングの改善:より適切なフィーチャーを追加したり、既存のフィーチャーのより良い表現を作成します。
  • トレーニング時間を増やす:より多くのエポックでモデルをトレーニングし、学習時間を増やします。
  • 正則化を減らす:正則化技術がモデルを過度に制約している場合は、正則化技術の強度を下げる。
  • 十分なデータの確保:データが不十分だとオーバーフィッティングになることが多いが、モデルが限られた例からパターンを識別できない場合、アンダーフィッティングになることもある。Ultralytics データセットのようなリソースや、データ増強のようなテクニックを検討してください。

アンダーフィットの実例

  • 限られた機能で住宅価格を予測する:寝室の数だけを使って住宅価格を予測しようとすることを想像してみてほしい。この単純なモデル(機能が少ない)では、立地、広さ、築年数といった重要な要素を無視しているため、住宅市場の真の複雑さを捉えることができず、フィットしない可能性が高い。
  • 複雑なシーンのための基本的な画像分類器:多様な環境に生息する様々な種類の鳥を識別するような複雑な画像分類タスクに対して、1つか2つの畳み込み層しか持たない非常に単純な畳み込みニューラルネットワーク(CNN)を学習させる。このモデルは、異なる種を区別する複雑な特徴の学習に失敗する可能性があり、その結果、見慣れた画像でも新しい画像でもパフォーマンスが低下する。

アンダーフィットとオーバーフィットの比較

アンダーフィッティングはオーバーフィッティングの逆です。アンダーフィッティングモデルは単純すぎるため、データの根本的な傾向を捉えることができず、高いバイアスが生じます。オーバーフィッティング・モデルは複雑すぎる。ノイズや外れ値を含めて学習データを学習しすぎるため、分散が大きくなり、新しいデータでのパフォーマンスが低下する。機械学習の目標は、この両極端の間でバランスを取り、優れた汎化を達成することである。このバランスは、しばしばバイアスと分散のトレードオフという観点から議論される。クロスバリデーションUltralytics K-Foldガイド参照)や注意深いハイパーパラメーターのチューニングUltralytics Tuningガイド参照)のようなテクニックは、この最適なバランスを見つけるために不可欠です。Ultralytics HUBのようなプラットフォームは、アンダーフィットとオーバーフィットの両方を特定し、軽減するために、実験を管理し、モデルのパフォーマンスを追跡するのに役立ちます。

すべて読む