Glossaire

Biais algorithmique

Découvre les biais algorithmiques, leurs sources et des exemples concrets. Apprends des stratégies pour atténuer les biais et construire des systèmes d'IA justes et éthiques.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Les biais algorithmiques désignent les erreurs systématiques et reproductibles d'un système d'intelligence artificielle (IA) qui entraînent des résultats injustes ou discriminatoires. Contrairement aux biais découlant purement de données défectueuses, les biais algorithmiques proviennent de la conception, de la mise en œuvre ou de l'application de l'algorithme lui-même. Cela peut se produire même lorsque les données d'entraînement en entrée semblent équilibrées. Il s'agit d'une préoccupation essentielle dans le domaine de l'apprentissage automatique (ML) et dans des domaines comme la vision artificielle (CV), car il peut saper la fiabilité et l'équité des systèmes d'IA, ce qui a un impact sur tout, des recommandations de produits aux décisions critiques dans les domaines de la finance et de la santé. Il est essentiel de s'attaquer à ce type de biais pour construire une IA digne de confiance, comme le soulignent des organismes de recherche tels que le NIST.

Sources de biais algorithmiques

Bien qu'ils soient souvent entremêlés avec les questions de données, les biais algorithmiques découlent spécifiquement de la mécanique de l'algorithme :

  • Choix de conception : Les décisions prises pendant le développement de l'algorithme, comme le choix de caractéristiques spécifiques ou de l'algorithme d'optimisation utilisé, peuvent involontairement introduire un biais. Par exemple, si l'on optimise uniquement la précision, le modèle risque d'être peu performant pour les groupes minoritaires s'ils représentent des cas particuliers.
  • Ingénierie et sélection des caractéristiques : Le processus de sélection, de transformation ou de création des caractéristiques(ingénierie des caractéristiques) peut intégrer des préjugés. Un algorithme peut apprendre des corrélations qui reflètent des préjugés sociétaux présents indirectement dans les caractéristiques.
  • Variables de substitution : Les algorithmes peuvent utiliser des variables apparemment neutres (comme le code postal ou l'historique des achats) comme substituts pour des attributs sensibles (comme la race ou le revenu). Cette utilisation de variables de substitution peut conduire à des résultats discriminatoires, même en l'absence de données sensibles explicites.
  • Boucles de rétroaction : Dans les systèmes qui apprennent au fil du temps, les biais algorithmiques initiaux peuvent être renforcés à mesure que les sorties biaisées du système influencent la collecte de données futures ou le comportement de l'utilisateur.

Exemples concrets

Les biais algorithmiques peuvent se manifester dans diverses applications :

  1. Outils d'embauche : Les systèmes d'IA conçus pour présélectionner les CV pourraient apprendre des schémas à partir des données historiques d'embauche. Si les pratiques passées ont favorisé certaines données démographiques, l'algorithme pourrait perpétuer ce biais, en pénalisant les candidats qualifiés issus de groupes sous-représentés, comme cela s'est tristement produit avec un outil expérimental chez Amazon.
  2. Services financiers : Les algorithmes utilisés pour l'évaluation du crédit ou l'approbation des prêts pourraient refuser de façon disproportionnée les demandes des personnes de certains quartiers ou groupes démographiques, même si les caractéristiques protégées sont exclues. Cela peut se produire si l'algorithme identifie des corrélations entre des facteurs apparemment neutres (comme les habitudes de navigation sur Internet ou les détaillants spécifiques fréquentés) et le risque de crédit qui s'alignent sur les préjugés sociétaux. Les préoccupations concernant les biais algorithmiques dans la finance sont de plus en plus nombreuses.

Biais algorithmique et concepts connexes

Il est important de distinguer les biais algorithmiques des termes apparentés :

  • Biais dans l'IA: il s'agit d'un terme général qui englobe toutes les formes d'injustice systématique dans les systèmes d'IA. Le biais algorithmique est une source spécifique de biais dans l'IA, à côté d'autres comme le biais de jeu de données.
  • Biais de l'ensemble des données: il s'agit des biais provenant des données utilisées pour former le modèle (par exemple, échantillons non représentatifs, annotations biaisées). Si les biais liés au jeu de données peuvent provoquer ou amplifier les biais algorithmiques, ces derniers peuvent également survenir indépendamment en raison de la conception de l'algorithme, même avec des données parfaitement représentatives. Il est essentiel de comprendre l'interaction entre les biais de l'IA et les biais des ensembles de données.
  • Compromis biais-variance: il s'agit d'un concept fondamental en ML concernant la complexité du modèle et les types d'erreurs. Dans ce contexte, le terme "biais" fait référence aux hypothèses simplificatrices formulées par un modèle qui conduisent à des erreurs systématiques(sous-adaptation), et non à un biais sociétal ou lié à l'équité.

Stratégies d'atténuation

La lutte contre les préjugés algorithmiques nécessite une approche proactive et à multiples facettes tout au long du cycle de vie de l'IA :

  • Mesures d'équité : Incorporer des mesures d'équité dans le processus de formation et de validation des modèles, parallèlement aux mesures de performance traditionnelles telles que la précision.
  • Vérification des algorithmes : Vérifie régulièrement les algorithmes pour détecter les résultats biaisés dans les différents sous-groupes. Des outils tels que les boîtes à outils AI Fairness 360 et Fairlearn peuvent aider à détecter et à atténuer les biais.
  • Techniques d'atténuation des biais : Employer des techniques conçues pour ajuster les algorithmes, telles que la repondération des points de données, la modification des contraintes d'apprentissage ou le post-traitement des résultats du modèle pour garantir des résultats plus équitables.
  • L'IA explicable (XAI) : Utilise les méthodes XAI pour comprendre pourquoi un algorithme prend certaines décisions, ce qui permet d'identifier les biais cachés dans sa logique. Il est essentiel d'améliorer la transparence de l'IA.
  • Équipes diverses et tests : Implique des équipes diverses dans le processus de développement et effectue des tests approfondis avec des groupes d'utilisateurs représentatifs pour découvrir les biais potentiels.
  • Sensibilisation à la réglementation : Reste informé des réglementations en évolution, comme la loi européenne sur l'IA, qui comprend des dispositions relatives aux préjugés et à l'équité.
  • Surveillance continue des modèles: Surveille les modèles déployés pour détecter les dégradations de performance ou les biais émergents au fil du temps.

En comprenant les nuances des biais algorithmiques et en travaillant activement à les atténuer par une conception soignée, des tests rigoureux et le respect des principes d'équité dans l'IA et d'éthique de l'IA, les développeurs peuvent créer des applications d'IA plus fiables, plus équitables et plus bénéfiques. Des organisations comme le Partenariat sur l'IA et l'Algorithmic Justice League militent en faveur d'un développement responsable de l'IA. Des plateformes comme Ultralytics HUB et des modèles comme Ultralytics YOLO fournissent des cadres qui soutiennent le développement et l'évaluation prudents de modèles, en tenant compte de facteurs tels que la confidentialité des données et en contribuant à la création de systèmes plus équitables. La conférence ACM sur l'équité, la responsabilité et la transparence (FAccT) est un lieu de recherche de premier plan dans ce domaine.

Tout lire