Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Constitutional AI

Scopri come Constitutional AI allinea i modelli ai valori umani utilizzando principi etici. Impara a implementare controlli di sicurezza nella visione artificiale con Ultralytics .

L'IA costituzionale è un metodo per addestrare i sistemi di intelligenza artificiale ad allinearsi ai valori umani fornendo loro una serie di principi di alto livello, una "costituzione", piuttosto che affidarsi esclusivamente a un ampio feedback umano sui singoli risultati. Questo approccio insegna essenzialmente al modello di IA a criticare e rivedere il proprio comportamento sulla base di una serie predefinita di regole, come "essere utile", "essere innocuo" ed "evitare discriminazioni". Incorporando queste linee guida etiche direttamente nel processo di addestramento, gli sviluppatori possono creare sistemi più sicuri, più trasparenti e più facili da scalare rispetto a quelli che dipendono dall'apprendimento manuale rinforzato dal feedback umano (RLHF).

Il meccanismo dell'IA costituzionale

L'innovazione principale dell'IA costituzionale risiede nel suo processo di formazione in due fasi, che automatizza l'allineamento dei modelli. A differenza dell'apprendimento supervisionato tradizionale, in cui gli esseri umani devono etichettare ogni risposta corretta, l'IA costituzionale utilizza il modello stesso per generare dati di formazione.

  1. Fase di apprendimento supervisionato: il modello genera risposte ai prompt, quindi critica il proprio output in base ai principi costituzionali. Rivedendo la risposta per allinearla meglio alle regole. Questo dataset perfezionato viene quindi utilizzato per mettere a punto il modello, insegnandogli a seguire intrinsecamente le linee guida.
  2. Fase di apprendimento rinforzato: questa fase, spesso denominata apprendimento rinforzato dal feedback dell'IA (RLAIF), sostituisce l'etichettatore umano . L'IA genera coppie di risposte e seleziona quella che meglio aderisce alla costituzione. Questi dati di preferenza addestrano un modello di ricompensa, che poi rinforza i comportamenti desiderati tramite tecniche standard di apprendimento rinforzato.

Rilevanza per la visione artificiale

Sebbene l'IA costituzionale abbia avuto origine nel contesto dei modelli linguistici di grandi dimensioni (LLM) sviluppati da organizzazioni come Anthropic, i suoi principi sono sempre più rilevanti per compiti di apprendimento automatico più ampi, tra cui la visione artificiale (CV).

  • Generazione di immagini etiche: Gli strumenti di IA generativa per la creazione di immagini possono essere addestrati "costituzionalmente" a rifiutare prompt che genererebbero immagini violente, odiose o protette da copyright. Ciò garantisce che i pesi del modello stesso codifichino i vincoli di sicurezza, impedendo la creazione di contenuti visivi dannosi.
  • Sistemi di visione critici per la sicurezza: nei veicoli autonomi, un approccio "costituzionale" può definire regole gerarchiche per il processo decisionale. Ad esempio, una regola che stabilisce che "la sicurezza umana ha la precedenza sull'efficienza del traffico" può guidare il modello nell'analisi di scene stradali complesse, garantendo che i risultati del rilevamento degli oggetti siano interpretati dando priorità alla sicurezza.

Implementazione dei controlli delle politiche nella visione artificiale

Sebbene la formazione completa dell'IA costituzionale comporti complessi cicli di feedback, gli sviluppatori possono applicare il concetto di "controlli costituzionali" durante l' inferenza per filtrare i risultati in base alle politiche di sicurezza . L'esempio seguente mostra come utilizzare YOLO26 per detect e applicare una regola di sicurezza per filtrare i rilevamenti a bassa affidabilità, imitando una costituzione di affidabilità.

from ultralytics import YOLO

# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
    # Filter boxes with confidence > 0.5 to ensure reliability
    safe_boxes = [box for box in result.boxes if box.conf > 0.5]

    print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
    # Further processing would only use 'safe_boxes'

AI costituzionale contro RLHF convenzionale

È importante distinguere l'IA costituzionale dal Reinforcement Learning from Human Feedback (RLHF) standard.

  • Scalabilità: RLHF richiede una grande quantità di manodopera umana per valutare i risultati del modello, il che è costoso e lento. L'IA costituzionale automatizza questo processo con agenti IA, rendendolo altamente scalabile.
  • Trasparenza: nella RLHF, il modello apprende da un "segnale di ricompensa" opaco (un punteggio), rendendo difficile capire perché un comportamento sia stato preferito. Nell'IA costituzionale, la catena di ragionamenti utilizzata durante la fase di critica rende il ragionamento esplicito e tracciabile rispetto a specifici principi scritti.
  • Coerenza: i valutatori umani possono essere incoerenti o di parte. Una costituzione scritta fornisce una base stabile per l'etica dell'IA, riducendo la soggettività nel processo di allineamento.

Il futuro dell'allineamento

Con l'evoluzione dei modelli verso Intelligenza Generale Artificiale (AGI), cresce l'importanza di strategie di allineamento robuste come la Constitutional AI. Questi metodi sono essenziali per conformità con gli standard emergenti di organismi come il NIST AI Safety Institute.

La Ultralytics offre strumenti per gestire la governance dei dati e il monitoraggio dei modelli, facilitando la creazione di sistemi di IA responsabili. Integrando queste considerazioni etiche nel ciclo di vita dello sviluppo dell'IA, dalla raccolta dei dati alla distribuzione dei modelli, le organizzazioni possono mitigare i rischi e garantire che le loro tecnologie contribuiscano positivamente alla società.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora