用語集

バイアスと分散のトレードオフ

機械学習におけるバイアスと分散のトレードオフをマスターしよう。モデルのパフォーマンスを最適化するために、精度と汎化のバランスを取るテクニックを学びます!

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

バイアスと分散のトレードオフは、教師あり機械学習(ML)における基本的な概念であり、モデルが誤った仮定に起因するエラーを最小化する能力(バイアス)と、学習データのばらつきに対する感度(分散)の間の緊張関係を表す。適切なバランスを見つけることは、新しい未知のデータに対してうまく汎化するモデルを構築する上で非常に重要である。バイアスが高いモデルは、訓練データにほとんど注意を払わず、基本的なパターンを単純化しすぎる。一方、分散が高いモデルは、注意を払いすぎて、本質的に訓練データをノイズも含めて記憶してしまう。

バイアスを理解する

バイアスは、複雑な実世界の問題を、より単純なモデルで近似することによって生じる誤差を表す。バイアスが大きいと、アルゴリズムが特徴量とターゲット出力の間の関連する関係を見逃してしまう可能性があり、アンダーフィットと呼ばれる現象につながります。アンダーフィッティング・モデルは、基本的な傾向を捉えることができないため、トレーニング・データと未知のテスト・データの両方でパフォーマンスが低下します。非線形性の高いデータに適用される線形回帰のような単純なモデルは、しばしば高いバイアスを示します。バイアスを減少させるテクニックは、一般的に、より多くの特徴を追加したり、ディープラーニング(DL)に見られるような、より洗練されたアルゴリズムを使用するなど、モデルの複雑性を増加させることを含む。

バリアンスを理解する

分散は、訓練データの変動に対するモデルの感度を表す。これは、異なるトレーニングデータセットでモデルをトレーニングした場合に、モデルの予測値がどの程度変化するかを表しています。分散が大きいと、アルゴリズムが意図した出力ではなく、訓練データのランダムなノイズをモデル化することになり、オーバーフィッティングにつながります。オーバーフィッティング・モデルは、トレーニング・データ上では非常に優れた性能を発揮するが、未知のテスト・データ上では汎化されないため性能が低下する。多くの層を持つディープニューラルネットワークや高次の多項式回帰のような複雑なモデルは、分散が大きくなりがちです。分散を減らすには、モデルを単純化したり、より多くの訓練データを使用したり、正則化テクニックを適用したりする必要があります。

トレードオフ

理想的には、低バイアスと低分散のモデルが望ましい。しかし、この2つの誤差の原因は多くの場合反比例の関係にあります:バイアスを小さくすると分散が大きくなる傾向があり、逆もまた然りです。モデルの複雑さを増すと、一般的にバイアスは減少しますが、分散は増加します。逆に、モデルの複雑さを減らすと、バイアスは増加するが分散は減少する。ゴールは、未知のデータにおける総誤差(バイアスの二乗、分散、および不可逆誤差の合計)を最小化する最適なモデルの複雑さのレベルを見つけることです。このためには、バイアスと分散のバランスを注意深くとることが必要であり、多くの場合、「統計的学習の要素」などで説明されているように、モデルの複雑さに対する総誤差のU字型曲線として可視化されます。

トレードオフの管理

いくつかのテクニックは、バイアスと分散のトレードオフを管理するのに役立つ:

  • モデルの選択:データの複雑さに適したアルゴリズムを選択すること。単純な問題では線形モデルが使われるかもしれませんが、複雑なコンピュータビジョン(CV)タスクでは、Ultralytics YOLOような高度なモデルが必要になるかもしれません。YOLO11 YOLOv10のようなモデルを比較するには、このトレードオフを考慮する必要があります。
  • 正則化:L1正則化やL2正則化のようなテクニックは、モデルの複雑さに対して損失関数にペナルティを加え、オーバーフィッティングを抑制し、分散を減らす。
  • クロスバリデーション: K-フォールド・クロス・バリデーションのような方法は、未知のデータに対するモデルの性能をよりロバストに推定し、バイアスと分散のバランスがとれたモデルを選択するのに役立ちます。
  • 特徴エンジニアリング:関連する特徴を選択したり、新しい特徴を作成したりすることで、モデルの学習問題を単純化し、バイアスと分散の両方を削減できる可能性があります。詳細はデータ収集とアノテーションのガイドをご覧ください。
  • アンサンブル手法:バギング(ランダムフォレストなど)やブースティング(勾配ブースティング機械など)のような手法は、複数のモデルを組み合わせて全体的なパフォーマンスを向上させ、多くの場合、分散(バギング)やバイアス(ブースティング)を削減します。アンサンブルモデルの概念を探求する。
  • データの増強: データ増強のようなテクニックを使って、トレーニングデータの有効なサイズと多様性を増やすことで、モデルをばらつきに対してよりロバストにし、ばらつきを減らすことができる。

実例

  1. 医療画像解析: 医用画像データを用いて腫瘍を検出する場合、バイアスの高いモデルは早期癌の微妙な兆候を識別できない(アンダーフィッティング)可能性がある。逆に、高バリアンスのモデルは、ノイズやトレーニングセット内の特定の患者例へのオーバーフィッティングにより、良性の異常を癌であると判断する可能性がある。良いバランスを達成することで、多様な患者スキャンにおいて信頼性の高い検出が可能になる。Ultralytics YOLO モデルのようなツールは、これらの要素のバランスをとるために微調整されることが多い。
  2. 予知保全: 製造業では、機械の故障を予測するには、うまく一般化するモデルが必要です。バイアスの高いモデルは、故障を予測するのが遅すぎたり、完全に見逃したりする可能性があります。高バリアンスのモデルは、トレーニング中に捕捉された通常の運転変動に基づいて誤ったアラームを引き起こす可能性があります。このトレードオフのバランスをとることで、予知保全戦略で検討されているように、誤検出による過剰なダウンタイムを発生させることなく、タイムリーな保全警告を確実に行うことができます。

関連概念

バイアスと分散のトレードオフを、AIにおける他の形のバイアスと区別することは重要だ:

Bias-Varianceトレードオフがモデルの複雑さとデータの感度に起因するモデルの汎化誤差に焦点を当てるのに対して、AI BiasとDataset Biasは公平性と表現上の問題に関係します。トレードオフの管理は、精度や 平均平均精度(mAP)のような予測パフォーマンス測定基準を最適化することを目的とし、AI/データセット・バイアスへの対処は公平な結果を保証することを目的としています。パフォーマンス・メトリクスについては、YOLO パフォーマンス・メトリクス・ガイドをご覧ください。

すべて読む