Glossaire

L'équité dans l'IA

Assurer l'équité dans l'IA avec des modèles éthiques et impartiaux. Explore les outils, les stratégies et le site Ultralytics YOLO pour des solutions d'IA équitables.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

L'équité dans l'IA est un domaine crucial qui se consacre à garantir que les systèmes d'intelligence artificielle fonctionnent de manière équitable et ne perpétuent ni n'amplifient les préjugés sociétaux existants. Elle implique de développer et de déployer des modèles qui évitent toute discrimination à l'égard d'individus ou de groupes sur la base d'attributs sensibles tels que la race, le sexe, l'âge, la religion ou l'orientation sexuelle. À mesure que les systèmes d'intelligence artificielle (IA) s'intègrent davantage dans les processus décisionnels critiques de divers secteurs, la prise en compte de l'équité est essentielle pour le développement éthique, la conformité juridique et le renforcement de la confiance du public.

Comprendre l'équité dans l'IA

L'équité dans l'IA présente de multiples facettes et ne fait pas l'objet d'une définition unique et universellement acceptée. Elle englobe plutôt divers formalismes mathématiques et considérations éthiques visant à atténuer les résultats injustes. Le défi principal consiste à identifier et à traiter les préjugés dans l'IA, qui peuvent provenir de multiples sources, y compris des données d'entraînement biaisées(préjugés sur les ensembles de données), des algorithmes biaisés ou des contextes de déploiement défectueux. Les biais historiques présents dans les données peuvent par inadvertance apprendre aux modèles à reproduire les discriminations passées, tandis que les biais de mesure peuvent provenir d'une collecte de données incohérente entre différents groupes. Reconnaître ces pièges potentiels est la première étape vers la construction de systèmes plus équitables. Différents critères d'équité, tels que la parité démographique (s'assurer que les résultats sont indépendants des attributs sensibles) ou l'égalité des chances (s'assurer que les taux de vrais positifs sont égaux entre les groupes), offrent des moyens distincts de mesurer et de rechercher l'équité, bien qu'il puisse être difficile d'atteindre plusieurs critères simultanément, comme le soulignent les recherches dans ce domaine (par exemple, les actes de la conférence FAccT de l'ACM).

Pertinence et importance

On ne saurait trop insister sur l'importance de l'équité dans l'IA, compte tenu de son profond impact potentiel sur les individus et la société. Les systèmes d'IA injustes peuvent conduire à des résultats discriminatoires dans des domaines à forts enjeux comme l'embauche, les demandes de prêt, la justice pénale et l'IA dans les soins de santé, ce qui pourrait priver certains groupes d'opportunités ou de services essentiels. Garantir l'équité n'est pas simplement une considération éthique, mais souvent une exigence légale, les réglementations exigeant de plus en plus la responsabilité et la non-discrimination dans les applications de l'IA(voir le cadre de gestion des risques de l'IA du NIST). Aborder la question de l'équité permet de prévenir les préjudices, de promouvoir la justice sociale et de favoriser la confiance dans les technologies de l'IA, encourageant ainsi leur adoption responsable. Cela s'aligne sur les principes plus larges de l'éthique de l'IA, qui englobent l'équité, la transparence, la responsabilité et la protection de la vie privée.

Applications de l'équité dans l'IA

Des efforts pour intégrer l'équité sont en cours dans de nombreuses applications de l'IA. En voici deux exemples :

  • L'équité dans les outils d'embauche : L'IA est utilisée pour présélectionner les CV et prédire la réussite des candidats. Si elle est formée principalement sur des données historiques reflétant des biais d'embauche antérieurs (par exemple, favoriser les candidats issus d'universités ou de groupes démographiques spécifiques), l'IA pourrait injustement désavantager les candidats qualifiés issus de groupes sous-représentés. Les entreprises développent des algorithmes sensibles à l'équité et des outils de vérification, comme AI Fairness 360 d'IBM, pour détecter et atténuer ces biais, en utilisant souvent des techniques telles que la repondération des points de données ou l'ajout de contraintes d'équité pendant la formation du modèle.
  • L'équité dans la reconnaissance faciale : Les systèmes de reconnaissance faciale ont montré des disparités de précision entre les différents groupes démographiques, les performances étant souvent moins bonnes pour les personnes ayant un teint de peau plus foncé ou les femmes. Cela peut avoir de graves conséquences dans des applications allant de la vérification d'identité à l'application de la loi. Des organismes de recherche tels que l'Algorithmic Justice League ont mis en lumière ces problèmes, suscitant des efforts pour créer des ensembles de données d' entraînement plus diversifiés et développer des modèles qui affichent des performances plus cohérentes au sein des populations. Des techniques telles que l'augmentation des données et l'utilisation d'ensembles de données de référence plus inclusifs sont des étapes cruciales.

Distinguer l'équité des concepts connexes

Bien qu'étroitement liée, l'équité dans l'IA diffère des concepts adjacents :

  • Éthique de l'IA: Il s'agit d'un domaine plus large concernant les principes moraux et les lignes directrices pour le développement et l'utilisation de l'IA, y compris l'équité, la responsabilité, la transparence, la protection de la vie privée et la sécurité. L'équité est un élément essentiel de l'éthique de l'IA.
  • Biais algorithmique: Il s'agit spécifiquement des erreurs systématiques et répétables dans un système d'IA qui créent des résultats injustes. L'équité dans l'IA est l'effort proactif pour identifier, mesurer et atténuer les biais algorithmiques.
  • L'IA explicable (XAI): L'XAI s'attache à rendre les décisions de l'IA compréhensibles pour les humains. Si le XAI peut aider à identifier les problèmes potentiels d'équité en révélant comment fonctionne un modèle, il ne garantit pas intrinsèquement l' équité. Cependant, la transparence grâce à l'XAI est souvent essentielle pour évaluer et garantir l'équité.

Parvenir à l'équité

Atteindre l'équité nécessite une combinaison d'approches techniques et procédurales tout au long du cycle de vie de l'IA. Cela comprend la collecte et l'annotation minutieuses des données, l'utilisation d'ensembles de données diversifiés et représentatifs, l'emploi d'algorithmes d'apprentissage automatique tenant compte de l'équité, des tests rigoureux et l'évaluation des modèles à l'aide de mesures d'équité appropriées, ainsi qu'une surveillance continue après le déploiement. Des outils tels que l'outil What-If deGoogle permettent aux praticiens d'explorer le comportement des modèles sur différentes tranches de données. Des plateformes comme Ultralytics HUB facilitent la formation et la gestion de modèles personnalisés, permettant aux utilisateurs d'appliquer des techniques telles que l'augmentation des données et d'évaluer des modèles tels que les modèles d'apprentissage automatique. Ultralytics YOLO11 pour déceler les disparités de performance entre les différents groupes, ce qui favorise le développement de solutions de vision par ordinateur plus équitables.

Tout lire