用語集

AIにおけるバイアス

倫理的なAI開発のための戦略、ツール、実例を通して、AIシステムにおけるバイアスを特定、緩和、防止する方法を発見する。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

人工知能(AI)におけるバイアスとは、AIシステム内の系統的かつ反復可能なエラーのことで、その結果、不公平、歪曲、差別的な結果がもたらされ、多くの場合、恣意的な特性に基づいて、あるグループが他のグループよりも優遇される。このバイアスは、AIモデル自体が悪意を持って行動することから発生するのではなく、モデルが学習データ、アルゴリズムの設計、または開発・配備に携わった人間の選択に存在する暗黙の価値観、歴史的不平等、または統計的不均衡を学習し、それを再現するときに発生する。AIのバイアスに対処することは、AIの倫理的発展の基本であり、特にコンピュータビジョン(CV)のような繊細な領域では、モデルの性能、信頼性、社会的信頼に決定的な影響を与えます。

Aiバイアスの原因

AIのバイアスはAI固有の性質ではなく、これらのシステムを構築するために使用される人間のプロセスとデータに起因する。その起源を理解することが緩和の鍵となる:

  • データセット・バイアスこれは最も一般的な原因であり、トレーニングに使用されたデータが、モデルが展開される実世界の母集団やコンテキストを代表していない場合に発生する。これには、歴史的バイアス(過去の社会的偏見を反映)、測定バイアス(グループ間で一貫性のないデータ収集)、表現バイアス(特定のグループのサンプリング不足)、主観的な視点を反映した注釈が含まれるデータラベリングの問題などがあります。データセットのバイアスの影響を理解することは、視覚AIにとって極めて重要である。
  • アルゴリズムによるバイアスバイアスは、アルゴリズムが特定のグループに不利になるような指標を最適化した場合や、モデル設計が万人に当てはまらない仮定をした場合など、アルゴリズム自体によってもたらされることがある。例えば、ある最適化の選択は、少数派のサブグループにとっての公平性を犠牲にして、全体的な正確さを優先するかもしれない。
  • 人間のバイアス:開発者やユーザー自身の意識的または無意識的なバイアスが、モデルの設計、データの選択、結果の解釈、配備の決定に影響を及ぼし、AIのライフサイクルに不公平感を埋め込む可能性がある。

実例

AIにおけるバイアスは様々な用途に現れ、時には深刻な結果をもたらすこともある:

  • 顔認識システム: NISTによる広範なテストを含む数多くの研究により、一部の顔認識技術は、特定の人口統計学的グループ(例えば、肌の色の濃い女性)の個人に対して、他のグループ(例えば、肌の色の薄い男性)に比べて著しく低い精度を示すことが示されている。この格差は、多くの場合、代表的でないトレーニングデータセットに起因しており、携帯電話のロック解除から法執行に至るまでのアプリケーションにおいて、誤認や不平等な扱いにつながる可能性がある。Algorithmic Justice Leagueのような組織は、このような偏見に焦点を当て、それに対抗するために積極的に活動している。
  • ヘルスケアにおけるAI 医療画像解析や患者のリスク予測などのタスクに使用されるAIモデルは、過去の健康データからバイアスを受け継ぐ可能性がある。診断ツールが主にある集団のデータに基づいて訓練されたものである場合、不特定多数の集団に対してはより正確な診断ができない可能性があり、診断の遅れや不適切な治療の推奨につながる可能性がある。公正さが積極的に考慮されなければ、臨床アルゴリズムに偏りが生じる危険性があることが、研究によって明らかにされている

Aiにおけるバイアスと関連概念との区別

AIにおけるバイアスは、主に公正さと倫理的な意味合いに関するものであり、機械学習(ML)における他の関連概念とは区別することが重要である:

  • データセット・バイアスAIバイアスの主な原因であるが、データセット・バイアスは、特にデータ自体の代表的でない性質を指す。AIのバイアスは、データセットのバイアス、アルゴリズムの選択、または人的要因に起因する体系的な不公平のより広範な結果です。
  • アルゴリズム・バイアスデータのみに由来するバイアスとは異なり、モデルの設計や最適化プロセスによってもたらされるバイアスを特に指す。AI全体のバイアスに寄与するもう一つの潜在的な原因である。
  • バイアスと分散のトレードオフこれはMLにおける中核的な統計的概念で、モデルの単純さ(バイアスが高く、アンダーフィッティングにつながる可能性がある)とモデルの複雑さ(分散が高く、オーバーフィッティングにつながる可能性がある)の間の緊張関係を説明するものである。ここでは「バイアス」が使われているが、これは過度に単純化された仮定によるモデル誤差を指しており、AIバイアスの倫理的または公正な意味合いとは異なる。

Aiバイアスへの対応

AIのバイアスを軽減することは継続的なプロセスであり、AI開発のライフサイクルを通じて多面的なアプローチが必要となる:

  • データキュレーションと補強:多様で代表的なデータセットを積極的に収集する。データ補強や潜在的な合成データ生成などのテクニックを活用し、異なるグループ間の代表性のバランスをとる。Ultralytics Datasetsコレクションのような多様なデータソースのリソースを探索する。
  • 公平性の指標と監査: モデル評価時に適切な指標を使用して公平性を定義し、測定する。配備前と配備後に、異なるサブグループに偏ったパフォーマンスがないか、定期的にモデルを監査する。
  • アルゴリズムの選択と変更:偏りが生じにくいアルゴリズムを選択するか、既存のアルゴリズムを修正して公平性制約を組み込む。
  • 透明性と説明可能性:モデルの挙動を理解し、潜在的なバイアスの原因を特定するために、説明可能なAI(XAI)技術を採用します。XAIのコンセプトについてはこちらをご覧ください。
  • 倫理的フレームワークとガバナンス: NIST AIリスクマネジメントフレームワークのようなフレームワークを参照しながら、強力なAI倫理ガイドラインとガバナンス構造を導入し、開発と展開の指針とする。

Ultralytics HUBのようなプラットフォームは、慎重なデータセット管理を可能にし、カスタムモデルのトレーニングを容易にし、以下の監視を可能にすることで、より公正なAIシステムの開発をサポートするツールを提供します。 Ultralytics YOLOモデルのパフォーマンスを監視することができます。AIにおける公平性の原則(ACM FAccTカンファレンスのようなフォーラムでしばしば議論される)を認識し、組み込むことは、責任あるAI開発に取り組み、社会に公平に利益をもたらすテクノロジーを生み出すために極めて重要である。

すべて読む