Glosario

IA Generativa

Descubra cómo la IA generativa crea contenidos originales como texto, imágenes y audio, transformando sectores con aplicaciones innovadoras.

La IA generativa es una categoría de sistemas de inteligencia artificial (IA) capaces de crear contenidos nuevos y originales, como texto, imágenes, audio y vídeo. A diferencia de la IA tradicional, que analiza o actúa a partir de datos existentes, los modelos generativos aprenden los patrones y estructuras subyacentes a partir de un amplio corpus de datos de entrenamiento para producir resultados novedosos que imitan las características de los datos con los que fueron entrenados. Esta tecnología se nutre de complejos modelos de aprendizaje profundo, como los modelos de lenguaje de gran tamaño (LLM), cada vez más accesibles y potentes.

¿Cómo funciona la IA Generativa?

En esencia, la IA Generativa se basa en redes neuronales (NN) entrenadas en conjuntos de datos masivos. Durante el entrenamiento, el modelo aprende una distribución probabilística de los datos. Cuando se le da una indicación o entrada, utiliza esta distribución aprendida para predecir y generar el siguiente elemento más probable de una secuencia, ya sea una palabra, un píxel o una nota musical. Este proceso se repite para construir un contenido completo. Muchos modelos generativos modernos se basan en la arquitectura Transformer, que utiliza un mecanismo de atención para ponderar la importancia de las distintas partes de los datos de entrada, lo que le permite captar dependencias complejas de largo alcance y generar resultados muy coherentes. Estos potentes modelos preentrenados suelen denominarse modelos básicos.

IA Generativa vs. IA Discriminativa

La contrapartida de la IA generativa es la IA discriminativa. La diferencia fundamental radica en sus objetivos:

  • Modelos generativos: Aprenden la distribución de los datos para crear nuevas muestras de datos. Su objetivo es responder a la pregunta: "¿Qué aspecto tienen los datos?". Algunos ejemplos son los modelos de síntesis de texto a imagen o de generación de texto.
  • Modelos discriminatorios: Aprenden la frontera entre diferentes clases de datos para clasificar o predecir una etiqueta para una entrada dada. Su objetivo es responder: "¿Cuál es la diferencia entre estos grupos?". La mayoría de las tareas de aprendizaje supervisado, como la clasificación de imágenes y la detección de objetos realizada por modelos como Ultralytics YOLO, entran en esta categoría.

Mientras que los modelos discriminativos son excelentes para la categorización y la predicción, los modelos generativos sobresalen en la creación y el aumento.

Aplicaciones reales

La IA generativa está transformando numerosas industrias con una amplia gama de aplicaciones:

  1. Creación y ampliación de contenidos: Modelos como GPT-4 pueden escribir artículos, correos electrónicos y código, mientras que modelos de texto a imagen como DALL-E 3 y Midjourney crean impresionantes imágenes a partir de simples descripciones de texto. Esto está revolucionando campos que van desde el marketing y el entretenimiento hasta el desarrollo de software, con herramientas como GitHub Copilot que ayudan a los desarrolladores.
  2. Generación de datos sintéticos: La IA generativa puede crear datos artificiales realistas para entrenar otros modelos de aprendizaje automático (ML). Por ejemplo, en la IA en automoción, puede generar escenarios de conducción poco habituales para mejorar la solidez de los modelos de percepción en vehículos autónomos. Del mismo modo, en sanidad, puede producir imágenes médicas sintéticas para entrenar herramientas de diagnóstico, ayudando a superar los retos relacionados con la privacidad de los datos y los conjuntos de datos limitados. Esta técnica complementa el aumento de datos tradicional.

Tipos comunes de modelos generativos

Varias arquitecturas han sido fundamentales en el avance de la IA generativa:

  • Redes Generativas Adversariales (GAN): Consisten en dos redes neuronales competidoras -una generadora y otra discriminadora- que trabajan juntas para crear resultados muy realistas.
  • Modelos de difusión: Añada gradualmente ruido a una imagen y aprenda a invertir el proceso para generar imágenes de alta fidelidad. Esta es la tecnología que hay detrás de modelos como Stable Diffusion.
  • Grandes modelos lingüísticos (LLM): Basados en la arquitectura Transformer, estos modelos se entrenan con grandes cantidades de datos de texto para comprender y generar un lenguaje similar al humano. Las principales organizaciones de investigación, como Google AI y Meta AI, amplían constantemente los límites de lo posible.

Retos y consideraciones éticas

El rápido auge de la inteligencia artificial generativa plantea importantes retos. El potencial de uso indebido, como la creación de deepfakes para campañas de desinformación o la violación de los derechos de propiedad intelectual, es una de las principales preocupaciones. Los modelos también pueden perpetuar y amplificar los sesgos algorítmicos presentes en sus datos de entrenamiento. Abordar estas cuestiones requiere un fuerte compromiso con la ética de la IA y el desarrollo de marcos de gobernanza sólidos. Además, el entrenamiento de estos grandes modelos requiere un uso intensivo de la informática, lo que suscita preocupación por su impacto medioambiental. La gestión eficiente del ciclo de vida de los modelos a través de plataformas MLOps como Ultralytics HUB puede ayudar a agilizar el desarrollo y la implantación.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles