Contrôle vert
Lien copié dans le presse-papiers

L'IA constitutionnelle vise à aligner les modèles d'IA sur les valeurs humaines.

Apprends comment l'IA constitutionnelle aide les modèles à suivre des règles éthiques, à prendre des décisions plus sûres et à soutenir l'équité dans les systèmes de langage et de vision par ordinateur.

L'intelligence artificielle (IA) devient rapidement un élément clé de notre vie quotidienne. Elle est intégrée à des outils utilisés dans des domaines tels que les soins de santé, le recrutement, la finance et la sécurité publique. À mesure que ces systèmes se développent, des préoccupations concernant leur éthique et leur fiabilité se font également entendre.

Par exemple, il arrive que des systèmes d'IA construits sans tenir compte de l'équité ou de la sécurité produisent des résultats biaisés ou peu fiables. Cela s'explique par le fait que de nombreux modèles n'ont pas encore de moyen clair de refléter les valeurs humaines et de s'y aligner.

Pour relever ces défis, les chercheurs explorent maintenant une approche connue sous le nom d'IA constitutionnelle. En termes simples, cette approche introduit un ensemble de principes écrits dans le processus de formation du modèle. Ces principes aident le modèle à juger de son propre comportement, à s'appuyer moins sur les commentaires humains et à rendre les réponses plus sûres et plus faciles à comprendre.

Jusqu'à présent, cette approche a été utilisée principalement pour les grands modèles de langage (LLM). Cependant, la même structure pourrait aider les systèmes de vision artificielle à prendre des décisions éthiques lors de l'analyse des données visuelles. 

Dans cet article, nous allons explorer le fonctionnement de l'IA constitutionnelle, examiner des exemples réels et discuter de ses applications potentielles dans les systèmes de vision par ordinateur.

__wf_reserved_inherit
Fig 1. Caractéristiques de l'IA constitutionnelle. Image par l'auteur.

Qu'est-ce que l'IA constitutionnelle ?

L'IA constitutionnelle est une méthode de formation de modèles qui guide le comportement des modèles d'IA en fournissant un ensemble clair de règles éthiques. Ces règles agissent comme un code de conduite. Au lieu de se fier au modèle pour déduire ce qui est acceptable, il suit un ensemble écrit de principes qui façonnent ses réponses pendant la formation.

Ce concept a été introduit par Anthropicune société de recherche axée sur la sécurité de l'IA qui a développé la famille Claude LLM comme méthode pour rendre les systèmes d'IA plus auto-supervisés dans leur prise de décision. 

Plutôt que de s'appuyer uniquement sur les commentaires humains, le modèle apprend à critiquer et à affiner ses propres réponses en se basant sur un ensemble de principes prédéfinis. Cette approche est similaire à un système juridique, où un juge se réfère à une constitution avant de rendre un jugement.

Dans ce cas, le modèle devient à la fois le juge et l'élève, en utilisant le même ensemble de règles pour examiner et affiner son propre comportement. Ce processus renforce l'alignement des modèles d'IA et favorise le développement de systèmes d'IA sûrs et responsables.

Comment fonctionne l'IA constitutionnelle ?

L'objectif de l'IA constitutionnelle est d'enseigner à un modèle d'IA comment prendre des décisions sûres et justes en suivant un ensemble clair de règles écrites. Voici une décomposition simple du fonctionnement de ce processus :

  • Définir la constitution : Une liste écrite des principes éthiques que le modèle doit suivre est créée. La constitution décrit ce que l'IA doit éviter et les valeurs qu'elle doit refléter.

  • Formation avec supervisée exemples : On montre au modèle des exemples de réponses qui suivent la constitution. Ces exemples aident l'IA à comprendre à quoi ressemble un comportement acceptable.

  • Reconnaître et appliquer les modèles : Au fil du temps, le modèle commence à reconnaître ces schémas. Il apprend à appliquer les mêmes valeurs lorsqu'il répond à de nouvelles questions ou gère de nouvelles situations.

  • Critiquer et affiner les résultats : Le modèle examine ses propres réponses et les ajuste en fonction de la constitution. Cette phase d'auto-évaluation l'aide à s'améliorer sans dépendre uniquement des commentaires humains.

  • Produire des réponses alignées et plus sûres : Le modèle apprend à partir de règles cohérentes, ce qui permet de réduire les biais et d'améliorer la fiabilité dans le monde réel. Cette approche le rend plus aligné sur les valeurs humaines et plus facile à gouverner.
__wf_reserved_inherit
Fig 2. Vue d'ensemble de l'utilisation de l'IA constitutionnelle pour former des modèles.

Principes fondamentaux de la conception éthique de l'IA

Pour qu'un modèle d'IA suive des règles éthiques, il faut d'abord que ces règles soient clairement définies. Lorsqu'il s'agit d'IA constitutionnelle, ces règles sont basées sur un ensemble de principes fondamentaux. 

Par exemple, voici quatre principes qui constituent le fondement d'une constitution d'IA efficace :

  • Transparence: Il doit être facile de comprendre comment un modèle est arrivé à une réponse. Si une réponse est basée sur des faits, des estimations ou des modèles, elle sera transparente pour l'utilisateur. Cela renforce la confiance et aide les gens à juger s'ils peuvent se fier aux résultats du modèle.

  • L'égalité : Les réponses doivent rester cohérentes entre les différents utilisateurs. Le modèle ne doit pas modifier ses résultats en fonction du nom, des antécédents ou de l'emplacement d'une personne. L'égalité permet d'éviter les préjugés et favorise l'égalité de traitement.

  • Responsabilité : Il devrait être possible de retracer la façon dont un modèle a été formé et ce qui a influencé son comportement. Lorsque quelque chose ne va pas, les équipes doivent être en mesure d'en identifier la cause et de l'améliorer. Cela favorise la transparence et la responsabilité à long terme.

  • Sécurité : Les modèles doivent éviter de produire des contenus susceptibles de nuire. Si une demande conduit à des résultats risqués ou dangereux, le système doit le reconnaître et s'arrêter. Cela protège à la fois l'utilisateur et l'intégrité du système.

Exemples d'IA constitutionnelle dans les grands modèles linguistiques

L'IA constitutionnelle est passée de la théorie à la pratique et est maintenant lentement utilisée dans de grands modèles qui interagissent avec des millions d'utilisateurs. Deux des exemples les plus courants sont les LLM d'OpenAI et d'Anthropic. 

Bien que ces deux organisations aient adopté des approches différentes pour créer des systèmes d'IA plus éthiques, elles partagent une idée commune : apprendre au modèle à suivre un ensemble de principes directeurs écrits. Examinons ces exemples de plus près.

L'approche de l'IA constitutionnelle d'OpenAI

OpenAI a introduit un document appelé Model Spec dans le cadre du processus de formation de ses modèles ChatGPT . Ce document agit comme une constitution. Il décrit ce que le modèle doit viser dans ses réponses, y compris des valeurs telles que l'utilité, l'honnêteté et la sécurité. Il définit également ce qui est considéré comme un résultat nuisible ou trompeur. 

Ce cadre a été utilisé pour affiner les modèles d'OpenAI en évaluant les réponses en fonction de leur adéquation avec les règles. Au fil du temps, cela a contribué à façonner ChatGPT afin qu'il produise moins de résultats nuisibles et qu'il corresponde mieux aux attentes des utilisateurs. 

__wf_reserved_inherit
Fig 3. Un exemple de ChatGPT utilisant le Model Spec d'OpenAI pour répondre.

Les modèles d'IA éthiques d'Anthropic

La constitution que suit Claude, le modèle d'Anthropic, est basée sur des principes éthiques provenant de sources telles que la Déclaration universelle des droits de l'homme, des directives de plateforme telles que les conditions de service d'Apple, et des recherches menées par d'autres laboratoires d'IA. Ces principes permettent de s'assurer que les réponses de Claude sont sûres, justes et alignées sur les valeurs humaines importantes.

Claude utilise également l'apprentissage par renforcement à partir des commentaires de l'IA (RLAIF), où il examine et ajuste ses propres réponses en fonction de ces directives éthiques, plutôt que de s'appuyer sur les commentaires humains. Ce processus permet à Claude de s'améliorer au fil du temps, ce qui le rend plus évolutif et plus apte à fournir des réponses utiles, éthiques et non blessantes, même dans des situations délicates.

__wf_reserved_inherit
Fig 4. Comprendre l'approche d'Anthropicen matière d'IA constitutionnelle.

Appliquer l'IA constitutionnelle à la vision par ordinateur

Puisque l'IA constitutionnelle influence positivement la façon dont les modèles de langage se comportent, cela amène naturellement à se poser la question : Une approche similaire pourrait-elle aider les systèmes basés sur la vision à réagir de manière plus juste et plus sûre ? 

Bien que les modèles de vision par ordinateur travaillent avec des images plutôt qu'avec du texte, le besoin de conseils éthiques est tout aussi important. Par exemple, l'équité et la partialité sont des facteurs clés à prendre en compte, car ces systèmes doivent être formés pour traiter tout le monde de la même façon et éviter les résultats nuisibles ou injustes lors de l'analyse des données visuelles.

__wf_reserved_inherit
Fig 5. Défis éthiques liés à la vision par ordinateur. Image par l'auteur.

À l'heure actuelle, l'utilisation de méthodes d'IA constitutionnelles dans le domaine de la vision par ordinateur est encore explorée et n'en est qu'à ses débuts, les recherches se poursuivant dans ce domaine.

Par exemple, Meta a récemment présenté CLUE, un cadre qui applique un raisonnement de type constitutionnel aux tâches de sécurité des images. Il transforme les règles de sécurité générales en étapes précises que l'IA multimodale (systèmes d'IA qui traitent et comprennent plusieurs types de données) peut suivre. Cela permet au système de raisonner plus clairement et de réduire les résultats néfastes. 

De plus, CLUE rend les jugements de sécurité des images plus efficaces en simplifiant les règles complexes, ce qui permet aux modèles d'IA d'agir rapidement et avec précision sans avoir besoin d'une contribution humaine importante. En utilisant un ensemble de principes directeurs, CLUE rend les systèmes de modération d'images plus évolutifs tout en garantissant des résultats de haute qualité.

Principaux enseignements

À mesure que les systèmes d'IA assument davantage de responsabilités, l'accent n'est plus seulement mis sur ce qu'ils peuvent faire, mais sur ce qu'ils devraient faire. Ce changement est essentiel puisque ces systèmes sont utilisés dans des domaines qui ont un impact direct sur la vie des gens, tels que les soins de santé, l'application de la loi et l'éducation. 

Pour que les systèmes d'IA agissent de manière appropriée et éthique, ils ont besoin d'une base solide et cohérente. Cette base doit donner la priorité à l'équité, à la sécurité et à la confiance. 

Une constitution écrite peut fournir cette base pendant la formation, en guidant le processus de prise de décision du système. Elle peut également fournir aux développeurs un cadre pour revoir et ajuster le comportement du système après son déploiement, en s'assurant qu'il continue à s'aligner sur les valeurs qu'il a été conçu pour défendre et en facilitant son adaptation à mesure que de nouveaux défis se présentent.

Rejoins notre communauté grandissante dès aujourd'hui ! Plonge plus profondément dans l'IA en explorant notre dépôt GitHub. Tu veux créer tes propres projets de vision par ordinateur ? Explore nos options de licence. Apprends comment la vision par ordinateur dans le domaine de la santé améliore l'efficacité et explore l'impact de l'IA dans la fabrication en visitant nos pages de solutions !

Logo FacebookLogo de TwitterLogo LinkedInSymbole du lien de copie

Lire la suite dans cette catégorie

Construisons ensemble le futur
de l'IA !

Commence ton voyage avec le futur de l'apprentissage automatique.