Les biais en intelligence artificielle (IA) désignent les erreurs systématiques et reproductibles d'un système d'IA qui conduisent à des résultats injustes, privilégiant un groupe arbitraire d'utilisateurs par rapport à d'autres. Elle survient lorsqu'un modèle d'IA reflète les valeurs implicites ou les préjugés présents dans les données sur lesquelles il a été formé, les algorithmes utilisés ou les décisions prises par les humains impliqués dans son développement. Il est essentiel de s'attaquer aux biais de l'IA pour garantir le développement et le déploiement éthiques des technologies de l'IA, car ils ont un impact sur les performances des modèles, la fiabilité et la confiance du public, en particulier dans les applications critiques telles que la vision par ordinateur (VA).
Sources de partialité de l'Ai
Les biais de l'IA ne proviennent généralement pas de l'IA elle-même, mais plutôt des données et des processus utilisés pour la créer. Les principales sources comprennent :
- Biais de l'ensemble des données: il s'agit d'un facteur principal, qui se produit lorsque les données d'entraînement ne sont pas représentatives des scénarios du monde réel ou des données démographiques que l'IA rencontrera. Il peut s'agir d'une sous-représentation de certains groupes, de méthodes de collecte de données biaisées ou d'erreurs dans l'étiquetage des données. Tu peux en savoir plus sur l'impact des ensembles de données dans notre article de blog sur la compréhension des biais de l'IA et des biais des ensembles de données.
- Biais algorithmique: un biais peut être introduit par le choix de l'algorithme ou la façon dont il est conçu. Certains algorithmes peuvent favoriser de manière inhérente des modèles ou des résultats spécifiques, ce qui entraîne des prédictions biaisées même avec des données équilibrées.
- Préjugés humains : les propres préjugés conscients ou inconscients des développeurs peuvent influencer la sélection des données, l'ingénierie des caractéristiques, les métriques d'évaluation des modèles et les décisions de déploiement, en intégrant l'iniquité dans le système. Pour approfondir les considérations d'équité, voir Éthique de l'IA.
Exemples concrets
Les biais dans l'IA peuvent se manifester dans diverses applications, entraînant des conséquences importantes :
- Systèmes dereconnaissance faciale: Les premiers modèles de reconnaissance faciale présentaient souvent une précision moindre pour les personnes à la peau plus foncée ou les femmes, principalement parce que les ensembles de données d'entraînement comportaient surtout des hommes à la peau plus claire. Cette disparité pose des problèmes d'équité dans des applications telles que la sécurité et la vérification d'identité. Des études menées par des organismes tels que le NIST ont documenté ces différences de performance.
- L'IA dans les soins de santé: Les modèles d'IA utilisés pour l'analyse d'images médicales pourraient être moins performants pour les groupes démographiques sous-représentés dans les données d'entraînement. Par exemple, un algorithme de détection du cancer de la peau entraîné principalement sur des peaux claires pourrait ne pas réussir à identifier avec précision un mélanome sur une peau plus foncée, ce qui pourrait retarder le diagnostic et le traitement.
Distinguer les biais dans l'Ai des concepts connexes
Il est important de différencier les biais dans l'IA des termes similaires :
- Biais de l'ensemble des données: il s'agit spécifiquement des problèmes liés aux données utilisées pour la formation (par exemple, le manque de diversité). Il s'agit d'une cause majeure de biais dans l'IA, qui décrit l'injustice systématique qui en résulte dans le comportement du modèle.
- Biais algorithmique: il se concentre sur les biais provenant de la structure du modèle ou du processus d'apprentissage lui-même, une autre cause potentielle du phénomène plus large des biais dans l'IA.
- Compromis biais-variance: il s'agit d'un concept fondamental de l'apprentissage automatique (ML) concernant l'erreur de modèle. Le terme "biais" fait ici référence à l'erreur provenant d'hypothèses incorrectes dans l'algorithme d'apprentissage (conduisant à un sous-ajustement), distincte des implications sociétales ou éthiques du biais dans l'IA.
S'attaquer aux préjugés de l'Ai
Atténuer les biais de l'IA nécessite une approche à plusieurs facettes tout au long du cycle de vie du développement de l'IA :
- Des données diverses et représentatives : Il est fondamental de collecter des ensembles de données diversifiés et de haute qualité, comme ceux que l'on trouve dans la collection d'ensembles de donnéesUltralytics . Des techniques comme l'augmentation des données peuvent également contribuer à améliorer la représentation.
- Mesures d'équité et audit : Il est essentiel d'évaluer les modèles non seulement en fonction de leur précision globale, mais aussi de leur performance dans différents sous-groupes à l'aide de mesures d'équité. Des outils et des cadres sont en train de voir le jour pour aider à vérifier si les modèles sont biaisés.
- L'IA explicable (XAI) : Comprendre pourquoi un modèle fait certaines prédictions peut aider à identifier et à rectifier un comportement biaisé.
- Équipes inclusives : Les équipes de développement diversifiées sont moins susceptibles de négliger les préjugés potentiels.
Des plateformes comme Ultralytics HUB offrent des outils pour la formation et la gestion de modèles personnalisés, ce qui permet aux développeurs de conserver soigneusement les ensembles de données et de surveiller... Ultralytics YOLO les performances des modèles, contribuant ainsi au développement de systèmes d'IA plus équitables. La sensibilisation et l'intégration des principes d'équité dans l'IA sont essentielles pour créer une IA qui profite équitablement à tous.