Découvrez comment Constitutional AI aligne les modèles sur les valeurs humaines à l'aide de principes éthiques. Apprenez à mettre en œuvre des contrôles de sécurité dans la vision par ordinateur avec Ultralytics .
L'IA constitutionnelle est une méthode qui consiste à former les systèmes d'intelligence artificielle à s'aligner sur les valeurs humaines en leur fournissant un ensemble de principes de haut niveau, une « constitution », plutôt que de s'appuyer uniquement sur les nombreux commentaires humains sur les résultats individuels. Cette approche enseigne essentiellement au modèle d'IA à critiquer et à réviser son propre comportement sur la base d'un ensemble de règles prédéfinies, telles que « être utile », « être inoffensif » et « éviter la discrimination ». En intégrant directement ces directives éthiques dans le processus d'entraînement, les développeurs peuvent créer des systèmes plus sûrs, plus transparents et plus faciles à mettre à l'échelle que ceux qui dépendent de l' apprentissage par renforcement à partir des commentaires humains (RLHF).
L'innovation principale de Constitutional AI réside dans son processus de formation en deux phases, qui automatise l'alignement des modèles. Contrairement à l'apprentissage supervisé traditionnel, où les humains doivent étiqueter chaque réponse correcte, Constitutional AI utilise le modèle lui-même pour générer des données d'entraînement.
Alors que l'IA constitutionnelle trouve son origine dans le contexte des grands modèles linguistiques (LLM) développés par des organisations telles que Anthropic, ses principes sont de plus en plus pertinents pour des tâches d'apprentissage automatique plus larges, notamment la vision par ordinateur (CV).
Bien que la formation complète à l'IA constitutionnelle implique des boucles de rétroaction complexes, les développeurs peuvent appliquer le concept de « contrôles constitutionnels » pendant l' inférence afin de filtrer les résultats en fonction des politiques de sécurité. L'exemple suivant montre comment utiliser YOLO26 pour detect et appliquer une règle de sécurité afin de filtrer les détections peu fiables, imitant ainsi une constitution de fiabilité.
from ultralytics import YOLO
# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
Il est important de distinguer l'IA constitutionnelle de l'apprentissage par renforcement standard à partir du retour d'information humain (RLHF).
Au fur et à mesure que les modèles évoluent vers Artificial General Intelligence (AGI), l'importance de stratégies d'alignement robustes telles que l'IA constitutionnelle s'accroît. Ces méthodes sont essentielles pour pour se conformer aux normes émergentes d'organismes tels que le NIST AI Safety Institute.
Ultralytics propose des outils pour gérer la gouvernance des données et la surveillance des modèles, facilitant ainsi la création de systèmes d'IA responsables. En intégrant ces considérations éthiques dans le cycle de vie du développement de l'IA, de la collecte des données au déploiement des modèles, les organisations peuvent atténuer les risques et s'assurer que leurs technologies contribuent positivement à la société.