Glossaire

L'IA explicable (XAI)

Découvre l'IA explicable (XAI) : Instaure la confiance, assure la responsabilité et respecte les réglementations grâce à des informations interprétables pour des décisions plus intelligentes en matière d'IA.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

L'IA explicable (XAI) fait référence aux méthodes et techniques de l'intelligence artificielle (IA) qui permettent aux utilisateurs humains de comprendre et d'interpréter les résultats et les décisions prises par les systèmes d'IA. À mesure que les modèles d'IA, en particulier ceux qui sont complexes comme les réseaux neuronaux d'apprentissage profond utilisés en vision par ordinateur, deviennent plus répandus, leur fonctionnement interne peut être opaque, souvent décrit comme des "boîtes noires." Le XAI vise à ouvrir ces boîtes noires, en donnant un aperçu de la façon dont les conclusions sont tirées, favorisant ainsi la confiance, la responsabilité et une surveillance humaine efficace.

Pourquoi l'IA explicable est importante

Le besoin de XAI découle de l'intégration croissante de l'IA dans les processus de prise de décision critiques dans divers secteurs. Alors que les modèles d'IA comme Ultralytics YOLO peuvent atteindre une grande précision, il est crucial de comprendre pourquoi ils font des prédictions spécifiques. Ce manque d'interprétabilité peut freiner l'adoption dans des domaines à forts enjeux tels que l'IA dans le domaine de la santé et de la finance. Les principaux moteurs de l'IAO comprennent :

  • Confiance et responsabilité : Comprendre le raisonnement qui sous-tend la décision d'une IA aide les utilisateurs à faire confiance à ses résultats et rend les développeurs responsables du comportement du modèle.
  • Débogage et amélioration : Les techniques XAI peuvent aider à identifier les failles, les biais ou les comportements inattendus dans les modèles, guidant ainsi les développeurs dans l'évaluation et l'affinage des modèles. Par exemple, comprendre pourquoi un modèle de détection d'objets échoue dans certaines conditions permet d'apporter des améliorations ciblées.
  • Conformité réglementaire : Les réglementations telles que le Règlement général sur la protection des données (RGPD) de l'UE imposent un "droit à l'explication" pour les décisions automatisées, ce qui rend XAI essentiel pour la conformité légale.
  • Considérations éthiques : En révélant comment les modèles utilisent les données, XAI permet de découvrir et d'atténuer les biais potentiels de l'IA, ce qui garantit des résultats plus équitables et s'aligne sur les principes d'éthique de l'IA.

Avantages et applications

La mise en œuvre de la XAI offre des avantages significatifs. Elle renforce la confiance des utilisateurs, facilite le développement de modèles grâce à un débogage plus aisé et favorise un déploiement responsable de l'IA. Les techniques d'IAO sont appliquées dans différents domaines :

  1. Diagnostic médical : dans le cadre de l'analyse d'images médicales, XAI peut mettre en évidence les régions spécifiques d'une image (comme une radiographie ou une IRM) qui ont conduit un modèle d'IA à détecter une affection potentielle. Cela permet aux cliniciens de vérifier les conclusions de l'IA et de les intégrer en toute confiance dans leur processus de diagnostic. Des initiatives de recherche telles que le programme XAI de la DARPA ont stimulé le développement dans ce domaine.
  2. Services financiers : Lorsque les modèles d'IA sont utilisés pour l'évaluation du crédit ou l'approbation des prêts, XAI peut expliquer les facteurs contribuant à la décision (par exemple, les antécédents de crédit, le niveau de revenu). Cela aide les institutions à se conformer à des réglementations telles que la loi sur l'égalité des chances en matière de crédit et à fournir des raisons claires aux clients, garantissant ainsi l'équité. Explore plus en détail l'IA dans la finance.

Techniques XAI

Il existe plusieurs techniques pour parvenir à l'explicabilité, souvent classées en fonction de leur portée (globale ou locale) ou de leur calendrier (intrinsèque ou post-hoc). Les méthodes courantes comprennent :

  • LIME (Local Interpretable Model-agnostic Explanations) : Explique les prédictions individuelles en rapprochant localement le modèle complexe d'un modèle plus simple et interprétable. En savoir plus sur LIME.
  • SHAP (SHapley Additive exPlanations) : Utilise les concepts de la théorie des jeux coopératifs pour attribuer une valeur d'importance à chaque caractéristique pour une prédiction particulière. Découvre les valeurs SHAP.
  • Mécanismes d'attention : Dans les modèles comme Transformers, les couches d'attention peuvent parfois être visualisées pour montrer sur quelles parties des données d'entrée le modèle s'est le plus concentré.

XAI vs. Transparence dans l'IA

Bien qu'elle soit liée, la XAI est distincte de la transparence dans l'IA. La transparence fait généralement référence à l'accessibilité des informations relatives à un système d'IA, telles que ses données d'entraînement, son code source ou son architecture globale. L'IAO, cependant, se concentre spécifiquement sur le fait de rendre le raisonnement derrière les décisions ou les prédictions spécifiques d'un modèle compréhensible pour les humains. Un système d'IA pourrait être transparent (par exemple, un code source ouvert disponible) mais toujours pas facilement explicable si sa logique interne reste complexe et non intuitive. Une gouvernance efficace de l'IA nécessite souvent à la fois de la transparence et de l'explicabilité. Tu peux en savoir plus dans notre article de blog Tout ce que tu dois savoir sur l'IA explicable.

Tout lire