用語集

説明可能なAI(XAI)

説明可能なAI(XAI)を発見してください:よりスマートなAIの意思決定のための解釈可能な洞察により、信頼を構築し、説明責任を確保し、規制を満たします。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

説明可能なAI(XAI)とは、人工知能(AI)の中で、AIシステムによる出力や決定を人間が理解・解釈できるようにする手法やテクニックを指す。AIモデル、特にコンピュータ・ビジョンで使用されるディープラーニング・ニューラルネットワークのような複雑なものが普及するにつれ、その内部構造は不透明となり、しばしば "ブラックボックス "と表現される。XAIは、こうしたブラックボックスを開き、結論がどのようにして出されるのかについての洞察を提供することで、信頼、説明責任、効果的な人間の監視を促進することを目指している。

説明可能なAIが重要な理由

XAIの必要性は、様々な分野の重要な意思決定プロセスへのAIの統合が進んでいることに起因する。一方 Ultralytics YOLOのようなAIモデルは高い精度を達成できるが、なぜ特定の予測をするのかを理解することは極めて重要である。このような解釈可能性の欠如は、ヘルスケアや金融におけるAIのような重要な分野での採用を妨げる可能性がある。XAIの主な推進力は以下の通り:

  • 信頼と説明責任:AIの判断の背後にある理由を理解することで、ユーザーはその出力を信頼し、開発者はモデルの行動に対する説明責任を果たすことができる。
  • デバッグと改善:XAI技術は、モデルの欠陥、偏り、または予期せぬ挙動を特定するのに役立ち、開発者をモデルの評価と微調整に導く。例えば、物体検出モデルが特定の条件で失敗する理由を理解することで、的を絞った改善が可能になります。
  • 法規制の遵守: EUの一般データ保護規則(GDPR)のような規制は、自動化された決定に対する「説明する権利」を義務付けており、XAIは法令遵守に不可欠である。
  • 倫理的考察モデルがどのようにデータを使用するかを明らかにすることで、XAIはAIにおける潜在的なバイアスを明らかにし、軽減することができます。

利点と応用

XAIを導入することは大きなメリットをもたらします。ユーザーの信頼を高め、デバッグを容易にしてより良いモデル開発を促進し、責任あるAIの展開を促進する。XAI技術は様々なドメインで応用されている:

  1. 医療診断: 医療画像解析において、XAIは、AIモデルが潜在的な疾患を検出するきっかけとなった画像(X線やMRIなど)の特定の領域を強調表示することができます。これにより、臨床医はAIの発見を検証し、診断プロセスに自信を持って組み込むことができる。DARPA XAIプログラムのような研究イニシアチブは、この分野の開発に拍車をかけている。
  2. 金融サービス:AIモデルがクレジットスコアリングやローン承認に使用される場合、XAIは判断の要因(クレジットヒストリー、収入レベルなど)を説明することができます。これは、金融機関が信用機会均等法のような規制を遵守し、顧客に明確な理由を提供し、公平性を確保するのに役立ちます。金融におけるAIの詳細を見る

XAIテクニック

説明可能性を達成するための手法はいくつか存在し、その範囲(グローバルかローカルか)やタイミング(内在的か事後的か)によって分類されることが多い。一般的な手法は以下の通り:

  • LIME (Local Interpretable Model-agnostic Explanations):複雑なモデルを、より単純で解釈可能なモデルで局所的に近似することにより、個々の予測を説明します。LIMEの詳細はこちら。
  • SHAP (SHapley Additive exPlanations):協調ゲーム理論の概念を使用し、特定の予測に対して各特徴に重要値を割り当てる。SHAP値を発見する
  • 注意のメカニズム: トランスフォーマーのようなモデルでは、アテンションレイヤーを視覚化することで、モデルが入力データのどの部分に最も注目したかを示すことができる。

AIにおけるXAIと透明性

関連はあるが、XAIはAIにおける透明性とは異なる。透明性とは一般的に、学習データ、ソースコード、全体的なアーキテクチャなど、AIシステムに関する情報へのアクセスのしやすさを指す。しかしXAIは、モデルの特定の決定や予測の背後にある推論を人間が理解できるようにすることに焦点を当てている。AIシステムは透明性が高くても(例えば、オープンソースのコードが利用可能)、その内部ロジックが複雑で直感的でないままであれば、簡単に説明することはできない。効果的なAIガバナンスには、透明性と説明可能性の両方が求められることが多い。詳しくは、「説明可能なAIについて知っておくべきこと」をご覧ください。

すべて読む