人工知能(AI)におけるバイアスとは、AIシステム内の系統的かつ反復可能なエラーのことで、その結果、不公平、歪曲、差別的な結果がもたらされ、多くの場合、恣意的な特性に基づいて、あるグループが他のグループよりも優遇される。このバイアスは、AIモデル自体が悪意を持って行動することから発生するのではなく、モデルが学習データ、アルゴリズムの設計、または開発・配備に携わった人間の選択に存在する暗黙の価値観、歴史的不平等、または統計的不均衡を学習し、それを再現するときに発生する。AIのバイアスに対処することは、AIの倫理的発展の基本であり、特にコンピュータビジョン(CV)のような繊細な領域では、モデルの性能、信頼性、社会的信頼に決定的な影響を与えます。
Aiバイアスの原因
AIのバイアスはAI固有の性質ではなく、これらのシステムを構築するために使用される人間のプロセスとデータに起因する。その起源を理解することが緩和の鍵となる:
- データセット・バイアス:これは最も一般的な原因であり、トレーニングに使用されたデータが、モデルが展開される実世界の母集団やコンテキストを代表していない場合に発生する。これには、歴史的バイアス(過去の社会的偏見を反映)、測定バイアス(グループ間で一貫性のないデータ収集)、表現バイアス(特定のグループのサンプリング不足)、主観的な視点を反映した注釈が含まれるデータラベリングの問題などがあります。データセットのバイアスの影響を理解することは、視覚AIにとって極めて重要である。
- アルゴリズムによるバイアス:バイアスは、アルゴリズムが特定のグループに不利になるような指標を最適化した場合や、モデル設計が万人に当てはまらない仮定をした場合など、アルゴリズム自体によってもたらされることがある。例えば、ある最適化の選択は、少数派のサブグループにとっての公平性を犠牲にして、全体的な正確さを優先するかもしれない。
- 人間のバイアス:開発者やユーザー自身の意識的または無意識的なバイアスが、モデルの設計、データの選択、結果の解釈、配備の決定に影響を及ぼし、AIのライフサイクルに不公平感を埋め込む可能性がある。
実例
AIにおけるバイアスは様々な用途に現れ、時には深刻な結果をもたらすこともある:
- 顔認識システム: NISTによる広範なテストを含む数多くの研究により、一部の顔認識技術は、特定の人口統計学的グループ(例えば、肌の色の濃い女性)の個人に対して、他のグループ(例えば、肌の色の薄い男性)に比べて著しく低い精度を示すことが示されている。この格差は、多くの場合、代表的でないトレーニングデータセットに起因しており、携帯電話のロック解除から法執行に至るまでのアプリケーションにおいて、誤認や不平等な扱いにつながる可能性がある。Algorithmic Justice Leagueのような組織は、このような偏見に焦点を当て、それに対抗するために積極的に活動している。
- ヘルスケアにおけるAI: 医療画像解析や患者のリスク予測などのタスクに使用されるAIモデルは、過去の健康データからバイアスを受け継ぐ可能性がある。診断ツールが主にある集団のデータに基づいて訓練されたものである場合、不特定多数の集団に対してはより正確な診断ができない可能性があり、診断の遅れや不適切な治療の推奨につながる可能性がある。公正さが積極的に考慮されなければ、臨床アルゴリズムに偏りが生じる危険性があることが、研究によって明らかにされている。
Aiにおけるバイアスと関連概念との区別
AIにおけるバイアスは、主に公正さと倫理的な意味合いに関するものであり、機械学習(ML)における他の関連概念とは区別することが重要である:
- データセット・バイアス:AIバイアスの主な原因であるが、データセット・バイアスは、特にデータ自体の代表的でない性質を指す。AIのバイアスは、データセットのバイアス、アルゴリズムの選択、または人的要因に起因する体系的な不公平のより広範な結果です。
- アルゴリズム・バイアス:データのみに由来するバイアスとは異なり、モデルの設計や最適化プロセスによってもたらされるバイアスを特に指す。AI全体のバイアスに寄与するもう一つの潜在的な原因である。
- バイアスと分散のトレードオフ:これはMLにおける中核的な統計的概念で、モデルの単純さ(バイアスが高く、アンダーフィッティングにつながる可能性がある)とモデルの複雑さ(分散が高く、オーバーフィッティングにつながる可能性がある)の間の緊張関係を説明するものである。ここでは「バイアス」が使われているが、これは過度に単純化された仮定によるモデル誤差を指しており、AIバイアスの倫理的または公正な意味合いとは異なる。