用語集

AIにおける公平性

倫理的で偏りのないモデルでAIの公平性を確保する。公平なAIソリューションのためのツール、戦略、Ultralytics YOLO 。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

AIにおける公平性とは、人工知能システムが公平に動作し、既存の社会的偏見を永続させたり増幅させたりしないことを保証するための重要な分野である。これには、人種、性別、年齢、宗教、性的指向などの微妙な属性に基づく個人やグループに対する差別を回避するモデルの開発と展開が含まれる。人工知能(AI)システムが様々な分野の重要な意思決定プロセスに統合されるようになるにつれ、公正さへの取り組みは、倫理的な発展、法令遵守、社会的信頼の構築に不可欠である。

AIにおける公平性を理解する

AIにおける公平性は多面的であり、普遍的に合意された単一の定義がない。その代わりに、不公正な結果を軽減することを目的とした様々な数学的形式論や倫理的配慮を包含している。中心的な課題は、AIにおけるバイアスを特定し、それに対処することにある。バイアスとは、歪んだ学習データ(データセット・バイアス)、偏ったアルゴリズム、欠陥のある展開コンテキストなど、複数のソースから発生する可能性がある。データに存在する歴史的バイアスは、過去の差別を再現するようにモデルに不注意に教える可能性があり、測定バイアスは、異なるグループ間での一貫性のないデータ収集から生じる可能性がある。これらの潜在的な落とし穴を認識することは、より公平なシステムを構築するための第一歩である。人口統計学的パリティ(結果が敏感な属性に依存しないことを保証する)や機会均等(真正率がグループ間で等しいことを保証する)など、さまざまな公平基準は、公平性を測定し努力するための明確な方法を提供するが、この分野の研究(ACM FAccT proceedingsなど)によって強調されているように、複数の基準を同時に達成することは困難な場合がある。

関連性と重要性

AIが個人や社会に与える潜在的な影響を考えると、AIにおける公平性の重要性はいくら強調してもしすぎることはない。不公正なAIシステムは、雇用、ローン申請、刑事司法、ヘルスケアにおけるAIなど、利害関係の大きい分野で差別的な結果をもたらし、特定のグループに機会や必要不可欠なサービスを否定する可能性がある。公正さの確保は、単なる倫理的配慮ではなく、多くの場合、法的要件であり、AIアプリケーションにおける説明責任と無差別を求める規制がますます強まっている(NIST AIリスク管理フレームワークを参照)。公平性の確保は、危害の防止、社会正義の促進、AI技術への信頼の醸成に役立ち、責任ある導入を促す。これは、公平性、透明性、説明責任、プライバシーを包含するAI倫理の広範な原則と一致する。

AIにおける公平性の応用

公正さを埋め込む取り組みは、数多くのAIアプリケーションで行われている。以下に2つの例を挙げる:

  • 採用ツールの公平性:AIは履歴書を選別し、候補者の合格を予測するために使用される。過去の採用バイアスを反映した過去のデータ(例えば、特定の大学や人口統計の候補者を優遇する)を主体として学習させた場合、AIは不公平な扱いを受けているグループの優秀な候補者を不当に不利にする可能性がある。企業は、IBMのAI Fairness 360のような、公平性を意識したアルゴリズムや監査ツールを開発し、このようなバイアスを検出・軽減している。多くの場合、モデルのトレーニング中にデータポイントの再重量化や公平性制約の追加などのテクニックを使用している。
  • 顔認識における公平性: 顔認識システムは、異なる人口統計グループ間で精度に格差があることを示しており、多くの場合、肌の色が濃い人や女性では精度が低い。これは、身元確認から法執行に至るまで、様々な用途において深刻な結果をもたらす可能性がある。Algorithmic Justice Leagueのような研究組織は、このような問題に注目し、より多様なトレーニングデータセットを作成し、集団間でより一貫した性能を示すモデルを開発する努力を促している。データの増強や、より包括的なベンチマークデータセットの使用といった技術は、極めて重要なステップである。

公平性と関連概念との区別

密接に関連してはいるが、AIにおける公平性は隣接する概念とは異なる:

  • AI倫理これは、公正、説明責任、透明性、プライバシー、セキュリティなど、AIの開発と使用に関する道徳的原則とガイドラインに関する広範な分野である。公平性はAI倫理における重要な要素のひとつである。
  • アルゴリズム・バイアスこれは特に、不公平な結果を生み出すAIシステムにおける体系的かつ反復可能なエラーを指す。AIにおける公平性とは、アルゴリズムの偏りを特定し、測定し、緩和するための積極的な取り組みである。
  • 説明可能なAI(XAI)XAIは、AIの判断を人間に理解できるようにすることに重点を置いている。XAIは、モデルがどのように動作するかを明らかにすることで、潜在的な公平性の問題を特定するのに役立つが、本質的に公平性を保証するものではない。しかし、XAIによる透明性は、公平性を評価し確保するために不可欠であることが多い。

公平性の実現

公正さを実現するには、AIのライフサイクル全体を通じて、技術的・手続き的アプローチを組み合わせる必要がある。これには、慎重なデータ収集とアノテーション、多様で代表的なデータセットの使用、公平性を考慮した機械学習アルゴリズムの採用、適切な公平性メトリクスを使用した厳密なテストとモデル評価、導入後の継続的なモニタリングなどが含まれる。GoogleWhat-If Toolのようなツールを使用することで、実務者は異なるデータスライスにおけるモデルの挙動を調査することができます。Ultralytics HUBのようなプラットフォームは、カスタムモデルのトレーニングと管理を容易にし、ユーザーがデータ増強のようなテクニックを適用し、次のようなモデルを評価することを可能にします。 Ultralytics YOLO11のようなモデルを評価し、より公平なコンピュータビジョンソリューションの開発をサポートします。

すべて読む