Glosario

Alucinación (en los LLM)

Aprende qué son las alucinaciones LLM, sus causas, los riesgos del mundo real y cómo mitigarlas para obtener resultados de IA precisos y fiables.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

Los Grandes Modelos Lingüísticos (LLM), como GPT y otros, están diseñados para generar texto basándose en patrones aprendidos a partir de conjuntos de datos masivos. Sin embargo, a veces estos modelos pueden producir información que parece real, pero que es totalmente inventada o inexacta. Este fenómeno se conoce como "alucinación" en los LLM. La alucinación se produce cuando un modelo genera contenidos que no se basan en los datos con los que fue entrenado o se desvían del resultado previsto.

Comprender la alucinación en los LLM

La alucinación surge debido a la naturaleza probabilística de los LLM. Estos modelos predicen la siguiente palabra de una secuencia basándose en la probabilidad derivada de sus datos de entrenamiento. En ocasiones, este proceso puede dar lugar a resultados que suenan plausibles pero son falsos. Las alucinaciones pueden ir desde pequeñas inexactitudes hasta hechos, acontecimientos o citas totalmente inventados.

Por ejemplo:

  • Un LLM puede afirmar con seguridad que un personaje histórico nació en un año concreto, aunque la fecha sea incorrecta.
  • Puede inventar una referencia a un artículo científico inexistente cuando se le piden citas.

Las alucinaciones son especialmente preocupantes en aplicaciones en las que la precisión y la fiabilidad son fundamentales, como la sanidad, el derecho o la investigación científica. Más información sobre las implicaciones más amplias de la ética de la IA y la importancia de garantizar un desarrollo responsable de la IA.

Causas de la alucinación

La alucinación puede deberse a varios factores:

  1. Limitaciones de los datos de entrenamiento: El modelo puede no tener suficientes datos precisos sobre un tema concreto, lo que le lleva a "adivinar" basándose en información incompleta o no relacionada.
  2. Sobregeneralización: Los LLM pueden sobreajustar o aplicar patrones de los datos de entrenamiento a contextos en los que son inapropiados.
  3. Ambigüedad de la instrucción: Si la instrucción de entrada es poco clara o demasiado amplia, el modelo podría generar respuestas irrelevantes o inventadas.
  4. Diseño del modelo: La arquitectura subyacente de los LLM, como los Transformadores, se centra en la coherencia lingüística más que en la exactitud factual. Más información sobre la arquitectura de los Transformadores y sus aplicaciones.

Ejemplos reales de alucinación

Ejemplo 1: Diagnóstico médico

Un LLM utilizado en un chatbot sanitario podría sugerir incorrectamente un tratamiento basándose en síntomas o referencias alucinadas. Por ejemplo, podría recomendar una medicación inexistente para una afección concreta. Para mitigarlo, los desarrolladores integran la IA explicable (XAI) para garantizar la transparencia y la trazabilidad de las sugerencias generadas por la IA.

Ejemplo 2: Asistencia jurídica

En la generación de documentos jurídicos, un LLM podría fabricar jurisprudencia o citar erróneamente los estatutos legales. Esto es especialmente problemático en aplicaciones en las que los profesionales del Derecho dependen de precedentes precisos. Utilizar métodos basados en la recuperación, como la Generación Aumentada por Recuperación (R AG ), puede ayudar a fundamentar las respuestas en documentos verificados.

Abordar la alucinación

Técnicas para reducir las alucinaciones

  1. Curación de datos mejorada: Proporcionar conjuntos de datos de entrenamiento diversos y de alta calidad reduce la probabilidad de alucinación. Por ejemplo, los conjuntos de datos curados para aplicaciones de Aprendizaje Automático (AM ) suelen someterse a una validación rigurosa para garantizar su precisión.
  2. Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF): Este enfoque afina los modelos utilizando la retroalimentación humana para alinear los resultados con las respuestas deseables y factuales.
  3. Ingeniería de indicaciones: La elaboración de instrucciones precisas y específicas puede guiar al modelo hacia resultados más precisos. Más información sobre la ingeniería de instrucciones y su papel en la optimización del rendimiento del LLM.
  4. Integración de conocimiento externo: La incorporación de bases de conocimiento externas o API garantiza que el modelo pueda acceder a información actualizada y precisa durante la inferencia.

Herramientas y marcos

  • OpenAI y otras organizaciones están investigando activamente métodos para detectar y minimizar las alucinaciones en sus modelos. Por ejemplo, el GPT-4 de OpenAI incluye mecanismos para reducir las imprecisiones factuales.

Aplicaciones y riesgos

Aunque la alucinación plantea retos, también tiene aplicaciones creativas. En campos como la narración de historias o la generación de contenidos, la alucinación puede fomentar la innovación generando ideas imaginativas o especulativas. Sin embargo, en aplicaciones críticas como la asistencia sanitaria o los vehículos autoconducidos, la alucinación puede tener graves consecuencias, como la desinformación o los riesgos para la seguridad.

Orientaciones futuras

Abordar la alucinación requiere avances tanto en el entrenamiento como en la evaluación de modelos. Técnicas como la integración de la IA explicable y el desarrollo de modelos específicos de dominio son vías prometedoras. Además, plataformas como Ultralytics HUB permiten a los desarrolladores experimentar con soluciones de IA de última generación, al tiempo que se centran en prácticas sólidas de evaluación y despliegue.

Comprendiendo y mitigando la alucinación, podemos liberar todo el potencial de los LLM, garantizando al mismo tiempo que sus resultados sean fiables y dignos de confianza en las aplicaciones del mundo real.

Leer todo