アンダーフィッティングは、機械学習モデルが単純すぎてデータの根本的な構造を捉えられない場合に発生する。これは通常、学習しようとしているデータの複雑さに対して、モデルのパラメータや特徴が少なすぎる場合に起こる。その結果、モデルは学習データから適切に学習することができず、学習セットだけでなく、検証 セットやテストセットなどの未知のデータでもパフォーマンスが低下する。
アンダーフィットモデルは、しばしば高いバイアスと低い分散を特徴とする。バイアスとは、複雑な現実の問題を単純化したモデルで近似することによって生じる誤差のことである。アンダーフィットモデルは、データについて過度に単純化された仮定を行うため、系統的な誤差が生じます。一方、分散とは、学習データの変動に対するモデルの感度を指します。アンダーフィットモデルが分散を低く示すのは、単純すぎて学習データの変化にあまり影響されないからです。しかし、この単純さは、データの重要なパターンやニュアンスを捉えることができないことを意味します。
アンダーフィッティングにはいくつかの要因が考えられる:
アンダーフィッティングを識別することは、モデルのパフォーマンスを向上させるために不可欠である。アンダーフィッティングの兆候には以下のようなものがある:
アンダーフィッティングに対抗するには、以下の戦略を検討する:
アンダーフィッティングとオーバーフィッティングを区別することは重要である。アンダーフィッティングはモデルが単純すぎる場合に起こるが、オーバーフィッティングはモデルが複雑すぎて、ノイズや外れ値を含む訓練データを記憶し始める場合に起こる。オーバーフィッティング・モデルは、トレーニング・データ上では非常に優れた性能を発揮するが、未経験のデータ上では劣る。アンダーフィットとオーバーフィットの両方を避けるには、モデルの複雑さとトレーニングのバランスをとることが重要です。
家の大きさに基づいて住宅価格を予測するモデルを構築しているとしよう。単純な線形回帰モデルを使い、住宅価格は大きさに応じて直線的に上昇すると仮定した場合、データにフィットしない可能性があります。現実には、家の大きさと価格の関係はもっと複雑で、大きければ大きいほどリターンが減少するとか、特定の大きさの範囲では割高になるといった要素が絡んでいる可能性が高い。線形モデルではこのようなニュアンスを捉えることができず、結果として訓練データと新しいデータの両方で予測性能が低くなってしまいます。
動物の画像を異なるカテゴリーに分類しようとする画像分類タスクを考えてみよう。ロジスティック回帰のような非常に単純なモデルを使うと、データに適合しないかもしれません。画像分類は、しばしば画像中の複雑なパターンや特徴をとらえる必要がありますが、単純なモデルではそれができません。その結果、トレーニング・セットと新しい未見の画像の両方で、モデルのパフォーマンスが低下します。畳み込みニューラルネットワーク(CNN)のような、より複雑なモデルを使用することで、パフォーマンスを大幅に向上させることができます。
アンダーフィッティングの原因と兆候を理解することで、実務者はモデルを強化するための適切な手段を講じることができます。Ultralytics YOLOv8 のようなツールは、複雑なモデルの構築とチューニングのための高度な機能を提供し、アンダーフィッティングを回避し、様々なコンピュータビジョンタスクのパフォーマンスを向上させるのに役立ちます。モデルのトレーニングと最適化に関するより詳しい洞察については、Ultralytics ブログをご覧ください。