Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

IA explicable (XAI)

Descubra cómo la IA explicable (XAI) aporta transparencia a los complejos modelos de aprendizaje automático. Descubra técnicas clave como SHAP y LIME para generar confianza en Ultralytics .

La IA explicable (XAI) se refiere a un conjunto completo de procesos, herramientas y métodos diseñados para hacer que los resultados de los sistemas de inteligencia artificial (IA) sean comprensibles para los usuarios humanos. A medida que las organizaciones implementan cada vez más modelos de aprendizaje automático (ML), especialmente en el ámbito del aprendizaje profundo (DL), estos sistemas suelen funcionar como «cajas negras». Aunque un modelo de caja negra puede proporcionar predicciones muy precisas, su lógica interna de toma de decisiones sigue siendo opaca. La XAI tiene como objetivo esclarecer este proceso, ayudando a las partes interesadas a comprender por qué se tomó una decisión concreta, lo cual es crucial para fomentar la confianza, garantizar la seguridad y cumplir con la normativa aplicable.

La importancia de la explicabilidad

La demanda de transparencia en la toma de decisiones automatizada está impulsando la adopción de la XAI en todos los sectores. La confianza es un factor primordial; los usuarios son menos propensos a confiar en el modelado predictivo si no pueden verificar el razonamiento que hay detrás. Esto es especialmente relevante en entornos de alto riesgo, donde los errores pueden tener graves consecuencias.

  • Cumplimiento normativo: Los nuevos marcos legales, como la Ley de IA de la Unión Europea y el Reglamento General de Protección de Datos (RGPD), exigen cada vez más que los sistemas de IA de alto riesgo proporcionen explicaciones interpretables de sus decisiones.
  • IA ética: La implementación de la XAI es una piedra angular de la ética de la IA. Al revelar qué características influyen en el resultado de un modelo, los desarrolladores pueden identificar y mitigar el sesgo algorítmico, garantizando que el sistema funcione de manera equitativa en diferentes grupos demográficos.
  • Depuración de modelos: para los ingenieros, la explicabilidad es esencial para la supervisión de modelos. Ayuda a diagnosticar por qué un modelo puede estar fallando en casos extremos específicos o sufriendo una deriva de datos, lo que permite un reentrenamiento más específico.

Técnicas comunes en XAI

Existen diversas técnicas para hacer que las redes neuronales sean más transparentes, a menudo clasificadas según sean independientes del modelo (aplicables a cualquier algoritmo) o específicas del modelo.

  • SHAP (SHapley Additive exPlanations): Basándose en la teoría de juegos cooperativos, los valores SHAP asignan una puntuación de contribución a cada característica para una predicción dada, explicando en qué medida cada entrada ha modificado el resultado con respecto a la referencia.
  • LIME (Local Interpretable Model-agnostic Explanations): Este método aproxima un modelo complejo con uno más simple e interpretable (como un modelo lineal) localmente en torno a una predicción específica. LIME ayuda a explicar casos individuales perturbando las entradas y observando los cambios en las salidas.
  • Mapas de saliencia: ampliamente utilizados en la visión por ordenador (CV), estas visualizaciones resaltan los píxeles de una imagen que más influyeron en la decisión del modelo. Métodos como Grad-CAM crean mapas de calor para mostrar dónde «miró» un modelo para identificar un objeto.

Aplicaciones en el mundo real

La IA explicable es fundamental en sectores en los que el «por qué» es tan importante como el «qué».

  1. Diagnóstico sanitario: en el análisis de imágenes médicas, no basta con que una IA simplemente marque una radiografía como anómala. Un sistema con IA explicable destaca la región específica del pulmón o hueso que ha activado la alerta. Esta evidencia visual permite a los radiólogos validar los hallazgos del modelo, lo que facilita una adopción más segura de la IA en el ámbito sanitario.
  2. Servicios financieros: cuando los bancos utilizan algoritmos para la calificación crediticia, rechazar una solicitud de préstamo requiere una justificación clara para cumplir con leyes como la Ley de Igualdad de Oportunidades de Crédito. Las herramientas XAI pueden descomponer una denegación en factores comprensibles, como «ratio deuda-ingresos demasiado alta», lo que promueve la equidad en la IA y permite a los solicitantes abordar los problemas específicos.

Distinción de términos relacionados

Es útil diferenciar la XAI de conceptos similares en el glosario de IA:

  • XAI frente a transparencia en IA: La transparencia es un concepto más amplio que abarca la apertura de todo el sistema, incluidas las fuentes de datos y los procesos de desarrollo. La XAI se centra específicamente en las técnicas utilizadas para hacer comprensible el razonamiento de la inferencia. La transparencia puede implicar la publicación de las ponderaciones del modelo, mientras que la XAI explica por qué esas ponderaciones produjeron un resultado específico.
  • XAI frente a interpretabilidad: La interpretabilidad suele referirse a modelos que son intrínsecamente comprensibles por su diseño, como los árboles de decisión o la regresión lineal. La XAI suele implicar métodos post hoc aplicados a modelos complejos e ininterpretables, como las redes neuronales convolucionales profundas (CNN).

Ejemplo de código: Visualización de la inferencia para la explicación

Un paso fundamental en la explicabilidad de la visión artificial es visualizar las predicciones del modelo directamente en la imagen. Aunque la XAI avanzada utiliza mapas de calor, ver los cuadros delimitadores y las puntuaciones de confianza proporciona una visión inmediata de lo que ha detectado el modelo. Utilizando el ultralytics paquete con modelos de última generación como YOLO26, los usuarios pueden inspeccionar fácilmente los resultados de la detección.

from ultralytics import YOLO

# Load a pre-trained YOLO26 model (Nano version)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Visualize the results
# This displays the image with bounding boxes, labels, and confidence scores,
# acting as a basic visual explanation of the model's detection logic.
results[0].show()

Esta sencilla visualización actúa como una comprobación de cordura, una forma básica de explicabilidad que confirma que el modelo está prestando atención a los objetos relevantes de la escena durante las tareas de detección de objetos. Para flujos de trabajo más avanzados que impliquen la gestión de conjuntos de datos y la visualización del entrenamiento de modelos, los usuarios pueden aprovechar Ultralytics . Los investigadores suelen ampliar esto accediendo a los mapas de características subyacentes para realizar un análisis más profundo, tal y como se describe en los principios XAI del NIST.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora