説明可能なAI(XAI)を発見してください:よりスマートなAIの意思決定のための解釈可能な洞察により、信頼を構築し、説明責任を確保し、規制を満たします。
説明可能なAI(XAI)とは、人工知能(AI)の中で、AIシステムによる出力や決定を人間が理解・解釈できるようにする手法やテクニックを指す。AIモデル、特にコンピュータ・ビジョンで使用されるディープラーニング・ニューラルネットワークのような複雑なものが普及するにつれ、その内部構造は不透明となり、しばしば "ブラックボックス "と表現される。XAIは、こうしたブラックボックスを開き、結論がどのようにして出されるのかについての洞察を提供することで、信頼、説明責任、効果的な人間の監視を促進することを目指している。
XAIの必要性は、様々な分野の重要な意思決定プロセスへのAIの統合が進んでいることに起因する。一方 Ultralytics YOLOのようなAIモデルは高い精度を達成できるが、なぜ特定の予測をするのかを理解することは極めて重要である。このような解釈可能性の欠如は、ヘルスケアや金融におけるAIのような重要な分野での採用を妨げる可能性がある。XAIの主な推進力は以下の通り:
XAIを導入することは大きなメリットをもたらします。ユーザーの信頼を高め、デバッグを容易にしてより良いモデル開発を促進し、責任あるAIの展開を促進する。XAI技術は様々なドメインで応用されている:
説明可能性を達成するための手法はいくつか存在し、その範囲(グローバルかローカルか)やタイミング(内在的か事後的か)によって分類されることが多い。一般的な手法は以下の通り:
関連はあるが、XAIはAIにおける透明性とは異なる。透明性とは一般的に、学習データ、ソースコード、全体的なアーキテクチャなど、AIシステムに関する情報へのアクセスのしやすさを指す。しかしXAIは、モデルの特定の決定や予測の背後にある推論を人間が理解できるようにすることに焦点を当てている。AIシステムは透明性が高くても(例えば、オープンソースのコードが利用可能)、その内部ロジックが複雑で直感的でないままであれば、簡単に説明することはできない。効果的なAIガバナンスには、透明性と説明可能性の両方が求められることが多い。詳しくは、「説明可能なAIについて知っておくべきこと」をご覧ください。