機械学習モデルにおけるアンダーフィッティングを特定、防止、対処する方法を、専門家のヒント、戦略、実例を用いて学びます。
機械学習(ML)の領域では、最適なモデル性能を達成するには、単純さと複雑さのバランスを見つける必要がある。アンダーフィッティングは一般的な問題で、モデルが単純すぎて学習データに存在する基本的なパターンを捉えることができない。これは、モデルが効果的に学習できないことを意味し、学習したデータだけでなく、新しい未知のデータでもパフォーマンスが低下します。アンダーフィットモデルは、データ内の関係を正確に表現するのに必要な能力を欠いている。
いくつかの要因が、アンダーフィットモデルにつながる可能性がある:
アンダーフィッティングは通常、トレーニング中とトレーニング後のモデルのパフォーマンスを評価することで診断される:
アンダーフィッティングを克服するには、いくつかの戦略がある:
アンダーフィッティングはオーバーフィッティングの逆です。アンダーフィッティングモデルは単純すぎるため、データの根本的な傾向を捉えることができず、高いバイアスが生じます。オーバーフィッティング・モデルは複雑すぎる。ノイズや外れ値を含めて学習データを学習しすぎるため、分散が大きくなり、新しいデータでのパフォーマンスが低下する。機械学習の目標は、この両極端の間でバランスを取り、優れた汎化を達成することである。このバランスは、しばしばバイアスと分散のトレードオフという観点から議論される。クロスバリデーション(Ultralytics K-Foldガイド参照)や注意深いハイパーパラメーターのチューニング(Ultralytics Tuningガイド参照)のようなテクニックは、この最適なバランスを見つけるために不可欠です。Ultralytics HUBのようなプラットフォームは、アンダーフィットとオーバーフィットの両方を特定し、軽減するために、実験を管理し、モデルのパフォーマンスを追跡するのに役立ちます。