Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Inteligencia Artificial Constitucional

Descubra cómo Constitutional AI alinea los modelos con los valores humanos utilizando principios éticos. Aprenda a implementar controles de seguridad en la visión artificial con Ultralytics .

La IA constitucional es un método para entrenar sistemas de inteligencia artificial con el fin de alinearlos con los valores humanos, proporcionándoles un conjunto de principios de alto nivel —una «constitución»— en lugar de basarse únicamente en una amplia retroalimentación humana sobre los resultados individuales. Este enfoque enseña esencialmente al modelo de IA a criticar y revisar su propio comportamiento basándose en un conjunto predefinido de reglas, como «ser útil», «ser inofensivo» y «evitar la discriminación». Al integrar estas directrices éticas directamente en el proceso de entrenamiento, los desarrolladores pueden crear sistemas más seguros, transparentes y fáciles de escalar que los que dependen del aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF).

El mecanismo de la IA constitucional

La innovación principal de la IA constitucional radica en su proceso de entrenamiento en dos fases, que automatiza la alineación de modelos. A diferencia del aprendizaje supervisado tradicional, en el que los humanos deben etiquetar cada respuesta correcta, la IA constitucional utiliza el propio modelo para generar datos de entrenamiento.

  1. Fase de aprendizaje supervisado: el modelo genera respuestas a las indicaciones y luego critica su propio resultado basándose en los principios constitucionales. Revisa la respuesta para ajustarla mejor a las normas. Este conjunto de datos refinado se utiliza a continuación para ajustar el modelo, enseñándole a seguir de forma inherente las directrices.
  2. Fase de aprendizaje por refuerzo: esta fase, a menudo denominada aprendizaje por refuerzo a partir de la retroalimentación de la IA (RLAIF, por sus siglas en inglés), sustituye al etiquetador humano . La IA genera pares de respuestas y selecciona la que mejor se ajusta a la constitución. Estos datos de preferencias entrenan un modelo de recompensa, que a continuación refuerza los comportamientos deseados mediante técnicas estándar de aprendizaje por refuerzo.

Relevancia para la visión por ordenador

Si bien la IA constitucional se originó en el contexto de los modelos de lenguaje grandes (LLM) desarrollados por organizaciones como Anthropic, sus principios son cada vez más relevantes para tareas de aprendizaje automático más amplias, incluida la visión artificial (CV).

  • Generación ética de imágenes: Las herramientas de IA generativa para crear imágenes pueden entrenarse «constitucionalmente» para rechazar indicaciones que generarían imágenes violentas, que incitan al odio o protegidas por derechos de autor. Esto garantiza que los propios pesos del modelo codifiquen restricciones de seguridad, lo que evita la creación de contenido visual perjudicial.
  • Sistemas de visión críticos para la seguridad: en los vehículos autónomos, un enfoque «constitucional» puede definir reglas jerárquicas para la toma de decisiones. Por ejemplo, una regla que establezca que «la seguridad humana prevalece sobre la eficiencia del tráfico» puede guiar al modelo a la hora de analizar situaciones complejas en la carretera, garantizando que los resultados de la detección de objetos se interpreten dando prioridad a la seguridad.

Implementación de comprobaciones de políticas en Vision AI

Si bien el entrenamiento completo de IA constitucional implica bucles de retroalimentación complejos, los desarrolladores pueden aplicar el concepto de «controles constitucionales» durante la inferencia para filtrar los resultados basándose en políticas de seguridad . El siguiente ejemplo muestra el uso de YOLO26 para detect y aplicar una regla de seguridad para filtrar las detecciones de baja confianza, imitando una constitución de fiabilidad.

from ultralytics import YOLO

# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
    # Filter boxes with confidence > 0.5 to ensure reliability
    safe_boxes = [box for box in result.boxes if box.conf > 0.5]

    print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
    # Further processing would only use 'safe_boxes'

IA constitucional frente a RLHF convencional

Es importante distinguir la IA constitucional del aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF).

  • Escalabilidad: RLHF requiere una gran cantidad de mano de obra humana para evaluar los resultados de los modelos, lo cual es costoso y lento. La IA constitucional automatiza este proceso con agentes de IA, lo que la hace altamente escalable.
  • Transparencia: En RLHF, el modelo aprende a partir de una «señal de recompensa» opaca (una puntuación), lo que dificulta saber por qué se prefirió un comportamiento. En la IA constitucional, la cadena de razonamientos utilizada durante la fase de crítica hace que el razonamiento sea explícito y trazable a principios escritos específicos.
  • Coherencia: Los evaluadores humanos pueden ser incoherentes o parciales. Una constitución escrita proporciona una base estable para la ética de la IA, reduciendo la subjetividad en el proceso de alineación.

El futuro de la alineación

A medida que los modelos evolucionan hacia la Inteligencia General Artificial (AGI), crece la importancia de estrategias de alineación sólidas como la IA Constitucional. Estos métodos son esenciales para cumplir las normas emergentes de organismos como el Instituto de Seguridad de la IA del NIST.

Ultralytics ofrece herramientas para gestionar la gobernanza de datos y la supervisión de modelos, lo que facilita la creación de sistemas de IA responsables. Al integrar estas consideraciones éticas en el ciclo de vida del desarrollo de la IA, desde la recopilación de datos hasta la implementación de modelos, las organizaciones pueden mitigar los riesgos y garantizar que sus tecnologías contribuyan positivamente a la sociedad.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora