Contrôle vert
Lien copié dans le presse-papiers

Tout ce que tu dois savoir sur l'IA explicable (XAI)

Découvre comment Explainable AI (XAI) instaure la confiance en rendant les prédictions de l'IA transparentes et fiables dans les domaines de la santé, de la sécurité, de la conduite autonome, et plus encore.

As-tu déjà vu une réponse d'un outil d'intelligence artificielle (IA) comme ChatGPT et tu t'es demandé comment il en était arrivé à cette conclusion ? Dans ce cas, tu as rencontré le problème de la "boîte noire" de l'IA. C'est un terme qui fait référence au manque de clarté sur la façon dont les modèles d'IA traitent et analysent les données. Même les ingénieurs et les scientifiques de l'IA qui travaillent régulièrement avec des algorithmes d'IA de pointe peuvent avoir du mal à comprendre pleinement leur fonctionnement interne. En fait, seuls 22 % des professionnels de l'informatique comprennent vraiment les capacités des outils d'IA. 

L'incertitude qui entoure la façon dont les modèles d'IA prennent des décisions peut être risquée, en particulier dans des domaines critiques tels que la vision par ordinateur dans les soins de santé et l'IA dans la finance. Cependant, des progrès significatifs sont réalisés pour relever ces défis et améliorer la transparence.

En particulier, l'IA explicable (XAI) se concentre uniquement sur la résolution de cette préoccupation. En termes simples, il s'agit d'un ensemble de processus et de méthodes qui aident les utilisateurs humains à comprendre et à faire confiance aux résultats ou aux sorties donnés par des algorithmes complexes d 'apprentissage automatique

XAI peut aider les développeurs à s'assurer que les systèmes d'IA fonctionnent comme prévu. Il peut également aider les entreprises d'IA à respecter les normes réglementaires. Dans cet article, nous allons explorer l'IA explicable et son large éventail de cas d'utilisation. C'est parti !

L'importance de l'IA explicable

L'explicabilité est essentielle lorsque l'on travaille avec l'IA. C'est particulièrement vrai lorsqu'il s'agit du sous-domaine de l'IA, la vision par ordinateur, qui est largement utilisée dans les applications d'industries telles que les soins de santé. Lorsqu'on utilise des modèles de vision dans des secteurs aussi sensibles, il est important que le fonctionnement du modèle soit transparent et interprétable par tous. 

L'interprétabilité des modèles de vision par ordinateur aide les utilisateurs à mieux comprendre comment une prédiction a été faite et la logique qui la sous-tend. La transparence ajoute à cela en rendant le fonctionnement du modèle clair pour tout le monde, en exposant clairement les limites du modèle et en veillant à ce que les données soient utilisées de manière éthique. Par exemple, la vision par ordinateur peut aider les radiologues à identifier efficacement les complications de santé dans les images radiographiques. 

Fig 1. Radiographies du thorax analysées à l'aide de Vision AI montrant les classifications de la tuberculose saine, malade, active et latente.

Cependant, un système de vision qui est simplement précis ne suffit pas. Le système doit également être capable d'expliquer ses décisions. Imaginons que le système puisse montrer quelles parties de l'image l'ont conduit à ses conclusions - les résultats seraient alors plus clairs. Un tel niveau de transparence aiderait les professionnels de la santé à revérifier leurs résultats et à s'assurer que les soins prodigués aux patients répondent aux normes médicales. 

Une autre raison pour laquelle l'explicabilité est essentielle est qu'elle responsabilise les entreprises d'IA et renforce la confiance des utilisateurs. Une IA digne de confiance conduit les utilisateurs à être convaincus que les innovations de l'IA fonctionnent de manière fiable, prennent des décisions justes et traitent les données de manière responsable. 

Techniques clés d'IA explicables dans le domaine de la vision par ordinateur

Maintenant que nous avons discuté des raisons pour lesquelles l'explicabilité est importante dans la vision par ordinateur, examinons les principales techniques XAI utilisées dans l'IA de la vision.

Cartes de saillance

Les réseaux neuronaux sont des modèles inspirés du cerveau humain, conçus pour reconnaître des modèles et prendre des décisions en traitant les données par le biais de couches interconnectées de nœuds (neurones). Ils peuvent être utilisés pour résoudre des problèmes complexes de vision par ordinateur avec une grande précision. Même avec cette précision, ils restent des boîtes noires de par leur conception. 

Les cartes de saillance sont une technique XAI qui peut être utilisée pour donner un sens à ce que les réseaux neuronaux voient lorsqu'ils analysent des images. Elles peuvent également être utilisées pour dépanner les modèles au cas où ils ne fonctionneraient pas comme prévu. 

Les cartes de saillance fonctionnent en se concentrant sur les parties d'une image (pixels) qui définissent les prédictions d'un modèle. Ce processus est très similaire à la rétropropagation, où le modèle remonte des prédictions à l'entrée. Mais au lieu de mettre à jour les poids du modèle en fonction des erreurs, nous regardons simplement à quel point chaque pixel "compte" pour la prédiction. Les cartes de saillance sont très utiles pour les tâches de vision artificielle telles que la classification des images.

Par exemple, si un modèle de classification d'images prédit qu'une image représente un chien, nous pouvons examiner sa carte de saillance pour comprendre pourquoi le modèle pense qu'il s'agit d'un chien. Cela nous aide à identifier les pixels qui affectent le plus le résultat. La carte de saillance met en évidence tous les pixels qui ont contribué à la prédiction finale de l'image comme étant un chien.

Fig 2. Vue côte à côte des images d'entrée et de leurs cartes de saillance.

Cartographie de l'activation des classes (CAM)

La cartographie d'activation des classes est une autre technique XAI utilisée pour comprendre sur quelles parties d'une image un réseau neuronal se concentre lorsqu'il fait des prédictions de classification d'images. Son fonctionnement est similaire à celui des cartes de saillance, mais il se concentre sur l'identification des caractéristiques importantes de l'image plutôt que sur des pixels spécifiques. Les caractéristiques sont des modèles ou des détails, comme des formes ou des textures, que le modèle détecte dans l'image.

Les méthodes telles que la cartographie d'activation de classe pondérée par le gradient (Grad-CAM) et Grad-CAM++ reposent sur la même idée, avec quelques améliorations.

Voici comment fonctionne le CAM :

  • Avant que le réseau neuronal ne prenne sa décision finale, il utilise une étape appelée mise en commun de la moyenne globale (GAP) pour simplifier les informations. Le GAP combine tous les pixels d'un motif détecté en une seule valeur moyenne, créant ainsi un résumé pour chaque carte de caractéristiques (une représentation visuelle des motifs détectés).
  • Chaque carte de caractéristiques se voit ensuite attribuer un poids qui indique son importance pour prédire une certaine classe (comme "oiseau" ou "chat").
  • Cependant, l'une des limites de la CAM est que tu dois parfois entraîner à nouveau le modèle pour calculer ces poids, ce qui peut prendre beaucoup de temps.

Grad-CAM améliore cette méthode en utilisant des gradients, qui sont comme des signaux montrant à quel point chaque carte de caractéristiques influence la prédiction finale. Cette méthode évite d'avoir recours au GAP et permet de voir plus facilement ce sur quoi le modèle se concentre sans qu'il soit nécessaire de le réentraîner. Grad-CAM++ va encore plus loin en se concentrant uniquement sur les influences positives, ce qui rend les résultats encore plus clairs.

Fig 3. Comparaison entre CAM, Grad-CAM et Grad-CAM++.

Explications contrefactuelles

Les explications contrefactuelles sont un élément important de l'IA explicable. Une explication contrefactuelle consiste à décrire une situation ou un résultat en envisageant d'autres scénarios ou événements qui ne se sont pas produits mais qui auraient pu se produire. Elle peut démontrer comment des changements dans des variables d'entrée spécifiques conduisent à des résultats différents, comme par exemple : "Si X ne s'était pas produit, Y ne se serait pas produit".

En matière d'IA et de vision par ordinateur, une explication contrefactuelle identifie le plus petit changement nécessaire dans une entrée (comme une image ou des données) pour qu'un modèle d'IA produise un résultat différent et spécifique. Par exemple, la modification de la couleur d'un objet dans une image pourrait faire passer la prédiction d'un modèle de classification d'images de "chat" à "chien".

Un autre bon exemple serait de changer l'angle ou l'éclairage d'un système de reconnaissance faciale. Cela pourrait amener le modèle à identifier un individu différent, montrant ainsi comment de petits changements dans les données peuvent influencer les prédictions du modèle.

La façon la plus simple de créer ces explications est de procéder par essais et erreurs : tu peux modifier au hasard des parties de l'entrée (comme des caractéristiques de l'image ou des données) jusqu'à ce que le modèle d'IA te donne le résultat souhaité. Parmi les autres méthodes, on trouve les approches agnostiques du modèle, qui utilisent des techniques d'optimisation et de recherche pour trouver les changements, et les approches spécifiques au modèle, qui s'appuient sur des paramètres ou des calculs internes pour identifier les changements nécessaires.

Applications de l'IA explicable dans le domaine de la vision par ordinateur

Maintenant que nous avons exploré ce qu'est le XAI et ses principales techniques, nous pouvons voir comment il est utilisé dans la vie réelle. L'IAO a des applications diverses dans de nombreux domaines. Plongeons-nous dans quelques cas d'utilisation qui mettent en évidence son potentiel :

  • Systèmes de sécurité: XAI peut être utilisé pour améliorer les systèmes de sécurité en détectant les images mordues dans les documents d'identification tels que les passeports et les permis de conduire. Cela permet de garantir l'authenticité des images, de renforcer les processus de vérification de l'identité et d'empêcher les activités frauduleuses dans les applications sensibles.
Fig 4. Comment fonctionne le XAI pour détecter les images mordues.

  • Conduite autonome: Comprendre les capacités et les limites du système Vision AI embarqué d'une voiture autonome peut représenter une part énorme des tests de la voiture avant qu'elle ne soit déployée sur les routes du monde réel. Le XAI peut aider les entreprises automobiles à identifier et à résoudre les problèmes plus clairement.
  • Systèmes juridiques: Les systèmes d'analyse de documents basés sur la vision sont de plus en plus utilisés dans la prise de décisions judiciaires. L'IAO favorise des résultats équitables et permet d'examiner minutieusement les jugements automatisés. Il aide également les professionnels du droit à comprendre comment un modèle d'IA parvient à ses décisions.
  • Surveillance de la faune: Les pièges photographiques sont souvent utilisés pour surveiller la faune et recueillir des données sur les espèces animales. XAI peut être utilisé pour expliquer comment l'IA classe ces espèces dans les images. Ce faisant, les efforts de conservation peuvent être plus fiables et plus précis.

Principaux enseignements sur l'IA explicable

L'IA explicable permet de comprendre plus facilement comment les systèmes d'IA fonctionnent et pourquoi ils prennent certaines décisions. La transparence sur les modèles d'IA renforce la confiance et la responsabilité. La connaissance est un pouvoir et permet d'utiliser les innovations de l'IA de manière plus responsable. Dans des domaines critiques comme les soins de santé, la sécurité, la conduite autonome et les systèmes juridiques, le XAI peut être utilisé pour aider les développeurs et les utilisateurs à comprendre les prédictions de l'IA, à identifier les erreurs et à garantir une utilisation juste et éthique. En rendant l'IA plus transparente, XAI comble le fossé entre la technologie et la confiance humaine, ce qui la rend plus sûre et plus fiable pour les applications du monde réel.

Pour en savoir plus, visite notre dépôt GitHub et engage-toi auprès de notre communauté. Explore les applications de l'IA dans les voitures auto-conduites et l'agriculture sur nos pages de solutions. 🚀

Logo FacebookLogo de TwitterLogo LinkedInSymbole du lien de copie

Lire la suite dans cette catégorie

Construisons ensemble le futur
de l'IA !

Commence ton voyage avec le futur de l'apprentissage automatique.