Glosario

IA explicable (XAI)

Descubre la IA explicable (XAI): Genera confianza, garantiza la rendición de cuentas y cumple las normativas con conocimientos interpretables para tomar decisiones de IA más inteligentes.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

La IA explicable (XAI) se refiere a los métodos y técnicas dentro de la Inteligencia Artificial (IA) que permiten a los usuarios humanos comprender e interpretar los resultados y las decisiones tomadas por los sistemas de IA. A medida que los modelos de IA, especialmente los complejos como las redes neuronales de aprendizaje profundo utilizadas en visión por ordenador, se hacen más frecuentes, su funcionamiento interno puede resultar opaco, a menudo descrito como "cajas negras". La XAI pretende abrir estas cajas negras, proporcionando información sobre cómo se llega a las conclusiones, fomentando así la confianza, la responsabilidad y la supervisión humana eficaz.

Por qué es importante la IA explicable

La necesidad de la XAI surge de la creciente integración de la IA en los procesos de toma de decisiones críticas en diversos sectores. Mientras que los modelos de IA como Ultralytics YOLO pueden alcanzar una gran precisión, es crucial comprender por qué hacen predicciones concretas. Esta falta de interpretabilidad puede obstaculizar la adopción en campos de alto riesgo, como la IA en la Sanidad y las finanzas. Los principales impulsores de la XAI son:

  • Confianza y responsabilidad: Comprender el razonamiento que subyace a las decisiones de una IA ayuda a los usuarios a confiar en sus resultados y responsabiliza a los desarrolladores del comportamiento del modelo.
  • Depuración y mejora: Las técnicas de XAI pueden ayudar a identificar fallos, sesgos o comportamientos inesperados en los modelos, guiando a los desarrolladores en la evaluación y ajuste del modelo. Por ejemplo, entender por qué falla un modelo de detección de objetos en determinadas condiciones permite realizar mejoras específicas.
  • Cumplimiento normativo: Normativas como el Reglamento General de Protección de Datos (RGPD) de la UE exigen un "derecho a explicación" para las decisiones automatizadas, lo que hace que la XAI sea esencial para el cumplimiento legal.
  • Consideraciones éticas: Al revelar cómo utilizan los datos los modelos, XAI ayuda a descubrir y mitigar posibles sesgos en la IA, garantizando resultados más justos y ajustándose a los principios éticos de la IA.

Beneficios y aplicaciones

La implantación de la XAI ofrece ventajas significativas. Aumenta la confianza de los usuarios, facilita un mejor desarrollo de los modelos gracias a una depuración más sencilla, y promueve un despliegue responsable de la IA. Las técnicas XAI se aplican en diversos ámbitos:

  1. Diagnóstico médico: En el análisis de imágenes médicas, la XAI puede resaltar las regiones específicas de una imagen (como una radiografía o una resonancia magnética) que llevaron a un modelo de IA a detectar una posible afección. Esto permite a los médicos verificar las conclusiones de la IA e integrarlas con confianza en su proceso de diagnóstico. Iniciativas de investigación como el Programa DARPA XAI han impulsado el desarrollo en este campo.
  2. Servicios financieros: Cuando se utilizan modelos de IA para puntuar créditos o aprobar préstamos, la XAI puede explicar los factores que contribuyen a la decisión (por ejemplo, historial crediticio, nivel de ingresos). Esto ayuda a las instituciones a cumplir normativas como la Ley de Igualdad de Oportunidades de Crédito y a ofrecer razones claras a los clientes, garantizando la equidad. Más información sobre la IA en las finanzas.

Técnicas XAI

Existen varias técnicas para lograr la explicabilidad, a menudo clasificadas por su alcance (global frente a local) o momento (intrínseco frente a post-hoc). Entre los métodos habituales se incluyen:

  • LIME (Explicaciones agnósticas del modelo local interpretable): Explica las predicciones individuales aproximando localmente el modelo complejo con un modelo más sencillo e interpretable. Más información sobre LIME.
  • SHAP (SHapley Additive exPlanations): Utiliza conceptos de la teoría de juegos cooperativos para asignar un valor de importancia a cada característica para una predicción concreta. Descubre los valores SHAP.
  • Mecanismos de atención: En modelos como Transformers, a veces se pueden visualizar las capas de atención para mostrar en qué partes de los datos de entrada se centró más el modelo.

XAI vs. Transparencia en la IA

Aunque está relacionada, la XAI es distinta de la Transparencia en la IA. La transparencia se refiere generalmente a la accesibilidad de la información sobre un sistema de IA, como sus datos de entrenamiento, código fuente o arquitectura general. La XAI, sin embargo, se centra específicamente en hacer comprensible para los humanos el razonamiento que subyace a las decisiones o predicciones específicas de un modelo. Un sistema de IA puede ser transparente (p. ej., código fuente abierto disponible) pero aún así no ser fácilmente explicable si su lógica interna sigue siendo compleja y poco intuitiva. Una gobernanza eficaz de la IA a menudo requiere tanto transparencia como explicabilidad. Puedes leer más en nuestra entrada de blog Todo lo que necesitas saber sobre la IA explicable.

Leer todo