機械学習におけるバイアスと分散のトレードオフをマスターしよう。モデルのパフォーマンスを最適化するために、精度と汎化のバランスを取るテクニックを学びます!
バイアスと分散のトレードオフは、教師あり機械学習(ML)における基本的な概念であり、モデルが誤った仮定に起因するエラーを最小化する能力(バイアス)と、学習データのばらつきに対する感度(分散)の間の緊張関係を表す。適切なバランスを見つけることは、新しい未知のデータに対してうまく汎化するモデルを構築する上で非常に重要である。バイアスが高いモデルは、訓練データにほとんど注意を払わず、基本的なパターンを単純化しすぎる。一方、分散が高いモデルは、注意を払いすぎて、本質的に訓練データをノイズも含めて記憶してしまう。
バイアスは、複雑な実世界の問題を、より単純なモデルで近似することによって生じる誤差を表す。バイアスが大きいと、アルゴリズムが特徴量とターゲット出力の間の関連する関係を見逃してしまう可能性があり、アンダーフィットと呼ばれる現象につながります。アンダーフィッティング・モデルは、基本的な傾向を捉えることができないため、トレーニング・データと未知のテスト・データの両方でパフォーマンスが低下します。非線形性の高いデータに適用される線形回帰のような単純なモデルは、しばしば高いバイアスを示します。バイアスを減少させるテクニックは、一般的に、より多くの特徴を追加したり、ディープラーニング(DL)に見られるような、より洗練されたアルゴリズムを使用するなど、モデルの複雑性を増加させることを含む。
分散は、訓練データの変動に対するモデルの感度を表す。これは、異なるトレーニングデータセットでモデルをトレーニングした場合に、モデルの予測値がどの程度変化するかを表しています。分散が大きいと、アルゴリズムが意図した出力ではなく、訓練データのランダムなノイズをモデル化することになり、オーバーフィッティングにつながります。オーバーフィッティング・モデルは、トレーニング・データ上では非常に優れた性能を発揮するが、未知のテスト・データ上では汎化されないため性能が低下する。多くの層を持つディープニューラルネットワークや高次の多項式回帰のような複雑なモデルは、分散が大きくなりがちです。分散を減らすには、モデルを単純化したり、より多くの訓練データを使用したり、正則化テクニックを適用したりする必要があります。
理想的には、低バイアスと低分散のモデルが望ましい。しかし、この2つの誤差の原因は多くの場合反比例の関係にあります:バイアスを小さくすると分散が大きくなる傾向があり、逆もまた然りです。モデルの複雑さを増すと、一般的にバイアスは減少しますが、分散は増加します。逆に、モデルの複雑さを減らすと、バイアスは増加するが分散は減少する。ゴールは、未知のデータにおける総誤差(バイアスの二乗、分散、および不可逆誤差の合計)を最小化する最適なモデルの複雑さのレベルを見つけることです。このためには、バイアスと分散のバランスを注意深くとることが必要であり、多くの場合、「統計的学習の要素」などで説明されているように、モデルの複雑さに対する総誤差のU字型曲線として可視化されます。
いくつかのテクニックは、バイアスと分散のトレードオフを管理するのに役立つ:
バイアスと分散のトレードオフを、AIにおける他の形のバイアスと区別することは重要だ:
Bias-Varianceトレードオフがモデルの複雑さとデータの感度に起因するモデルの汎化誤差に焦点を当てるのに対して、AI BiasとDataset Biasは公平性と表現上の問題に関係します。トレードオフの管理は、精度や 平均平均精度(mAP)のような予測パフォーマンス測定基準を最適化することを目的とし、AI/データセット・バイアスへの対処は公平な結果を保証することを目的としています。パフォーマンス・メトリクスについては、YOLO パフォーマンス・メトリクス・ガイドをご覧ください。