IA explicable (XAI)
Descubra cómo la IA explicable (XAI) aporta transparencia a los complejos modelos de aprendizaje automático. Descubra técnicas clave como SHAP y LIME para generar confianza en Ultralytics .
La IA explicable (XAI) se refiere a un conjunto completo de procesos, herramientas y métodos diseñados para hacer que los resultados de los
sistemas de inteligencia artificial (IA)
sean comprensibles para los usuarios humanos. A medida que las organizaciones implementan cada vez más
modelos de aprendizaje automático (ML), especialmente en
el ámbito del aprendizaje profundo (DL), estos sistemas
suelen funcionar como «cajas negras». Aunque un modelo de caja negra puede proporcionar predicciones muy precisas, su
lógica interna de toma de decisiones sigue siendo opaca. La XAI tiene como objetivo esclarecer este proceso, ayudando a las partes interesadas a comprender
por qué se tomó una decisión concreta, lo cual es crucial para fomentar la confianza, garantizar la seguridad y cumplir con la normativa
aplicable.
La importancia de la explicabilidad
La demanda de transparencia en la toma de decisiones automatizada está impulsando la adopción de la XAI en todos los sectores. La confianza es un
factor primordial; los usuarios son menos propensos a confiar en el
modelado predictivo si no pueden verificar el
razonamiento que hay detrás. Esto es especialmente relevante en entornos de alto riesgo, donde los errores pueden tener graves
consecuencias.
-
Cumplimiento normativo: Los nuevos marcos legales, como la
Ley de IA de la Unión Europea y el
Reglamento General de Protección de Datos (RGPD), exigen cada vez más que los sistemas de IA de alto riesgo
proporcionen explicaciones interpretables de sus decisiones.
-
IA ética: La implementación de la XAI es una piedra angular de la
ética de la IA. Al revelar qué características influyen en el
resultado de un modelo, los desarrolladores pueden identificar y mitigar el
sesgo algorítmico, garantizando que el sistema
funcione de manera equitativa en diferentes grupos demográficos.
-
Depuración de modelos: para los ingenieros, la explicabilidad es esencial para la
supervisión de modelos. Ayuda a diagnosticar por qué un
modelo puede estar fallando en casos extremos específicos o sufriendo una
deriva de datos, lo que permite un reentrenamiento más específico.
Técnicas comunes en XAI
Existen diversas técnicas para hacer que las
redes neuronales sean más transparentes, a menudo
clasificadas según sean independientes del modelo (aplicables a cualquier algoritmo) o específicas del modelo.
-
SHAP (SHapley Additive exPlanations): Basándose en la teoría de juegos cooperativos,
los valores SHAP asignan una puntuación de contribución a cada característica para una
predicción dada, explicando en qué medida cada entrada ha modificado el resultado con respecto a la referencia.
-
LIME (Local Interpretable Model-agnostic Explanations): Este método aproxima un modelo complejo
con uno más simple e interpretable (como un modelo lineal) localmente en torno a una predicción específica.
LIME ayuda a explicar casos individuales perturbando las entradas y
observando los cambios en las salidas.
-
Mapas de saliencia: ampliamente utilizados en
la visión por ordenador (CV), estas visualizaciones
resaltan los píxeles de una imagen que más influyeron en la decisión del modelo. Métodos como
Grad-CAM crean mapas de calor para mostrar dónde «miró» un modelo para
identificar un objeto.
Aplicaciones en el mundo real
La IA explicable es fundamental en sectores en los que el «por qué» es tan importante como el «qué».
-
Diagnóstico sanitario: en el
análisis de imágenes médicas, no basta con que
una IA simplemente marque una radiografía como anómala. Un sistema con IA explicable destaca la región específica del pulmón o
hueso que ha activado la alerta. Esta evidencia visual permite a los radiólogos validar los hallazgos del modelo,
lo que facilita una adopción más segura de la IA en el ámbito sanitario.
-
Servicios financieros: cuando los bancos utilizan algoritmos para la calificación crediticia, rechazar una solicitud de préstamo
requiere una justificación clara para cumplir con leyes como la
Ley de Igualdad de Oportunidades de Crédito. Las herramientas XAI pueden descomponer una denegación en factores comprensibles, como «ratio deuda-ingresos demasiado
alta», lo que promueve la equidad en la IA y permite a
los solicitantes abordar los problemas específicos.
Distinción de términos relacionados
Es útil diferenciar la XAI de conceptos similares en el glosario de IA:
-
XAI frente a transparencia en IA:
La transparencia es un concepto más amplio que abarca la apertura de todo el sistema, incluidas las fuentes de datos y los
procesos de desarrollo. La XAI se centra específicamente en las técnicas utilizadas para hacer
comprensible el razonamiento de la inferencia. La transparencia puede implicar la publicación de
las ponderaciones del modelo, mientras que la XAI explica por qué esas ponderaciones
produjeron un resultado específico.
-
XAI frente a interpretabilidad: La interpretabilidad suele referirse a modelos que son intrínsecamente
comprensibles por su diseño, como los árboles de decisión o la
regresión lineal. La XAI suele implicar métodos post hoc aplicados a modelos complejos e ininterpretables, como las
redes neuronales convolucionales profundas (CNN).
Ejemplo de código: Visualización de la inferencia para la explicación
Un paso fundamental en la explicabilidad de la visión artificial es visualizar las predicciones del modelo directamente en la imagen.
Aunque la XAI avanzada utiliza mapas de calor, ver los cuadros delimitadores y las puntuaciones de confianza proporciona una visión inmediata de lo que
ha detectado el modelo. Utilizando el ultralytics paquete con modelos de última generación como
YOLO26, los usuarios pueden inspeccionar fácilmente los resultados de la detección.
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (Nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Visualize the results
# This displays the image with bounding boxes, labels, and confidence scores,
# acting as a basic visual explanation of the model's detection logic.
results[0].show()
Esta sencilla visualización actúa como una comprobación de cordura, una forma básica de explicabilidad que confirma que el modelo está prestando atención
a los objetos relevantes de la escena durante las
tareas de detección de objetos. Para flujos de trabajo más avanzados
que impliquen la gestión de conjuntos de datos y la visualización del entrenamiento de modelos, los usuarios pueden aprovechar Ultralytics . Los investigadores suelen ampliar esto accediendo a los
mapas de características subyacentes para realizar un análisis más profundo, tal y como se describe en los
principios XAI del NIST.