Glosario

Ajuste rápido

Optimiza eficientemente grandes modelos lingüísticos con Prompt Tuning: reduce costes, ahorra recursos y consigue adaptabilidad a tareas específicas sin esfuerzo.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

El ajuste de instrucciones es un método simplificado para adaptar modelos lingüísticos preentrenados a tareas o conjuntos de datos específicos. En lugar de actualizar todos los parámetros de un modelo de gran tamaño, el ajuste del indicador se centra en optimizar el indicador de entrada, manteniendo congelados los pesos del modelo. Este método es especialmente eficaz y consume pocos recursos, por lo que es accesible para diversas aplicaciones sin necesidad de una gran potencia de cálculo.

Concepto y relevancia

En esencia, el ajuste de instrucciones aprovecha los conocimientos ya incorporados en un modelo preentrenado, como un gran modelo lingüístico (LLM) como GPT-3 o GPT-4. La idea es que, elaborando cuidadosamente la instrucción de entrada, podemos guiar al modelo para que realice eficazmente la tarea deseada. Esto se consigue añadiendo a la entrada parámetros entrenables, a menudo un pequeño conjunto de "indicaciones suaves" o "prefijos". Estos parámetros se optimizan para dirigir la salida del modelo, "afinando" su comportamiento a través de la propia instrucción.

La relevancia del ajuste rápido está creciendo rápidamente debido a varias ventajas:

  • Eficacia de los parámetros: Reduce drásticamente el número de parámetros entrenables en comparación con el ajuste fino tradicional. Esto es especialmente crucial cuando se trabaja con modelos masivos en los que el ajuste fino completo es computacionalmente prohibitivo.
  • Coste computacional reducido: Entrenar sólo un pequeño conjunto de parámetros rápidos requiere mucho menos memoria GPU y tiempo de cálculo. Esto hace que sea más accesible y rápido adaptar los modelos a casos de uso específicos.
  • Evita el Olvido Catastrófico: Al mantener congelados los pesos originales del modelo, el ajuste rápido ayuda a evitar el olvido catastrófico, un fenómeno en el que el ajuste fino puede degradar el rendimiento del modelo en tareas previamente aprendidas.
  • Versatilidad de tareas: La sintonización de pronósticos puede aplicarse a una amplia gama de tareas de PNL, e incluso se extiende a otros dominios como la visión por ordenador, lo que la convierte en una técnica versátil en la IA moderna.

Aplicaciones del ajuste rápido

El Ajuste Rápido se utiliza en diversas aplicaciones, sobre todo cuando es clave adaptar eficazmente modelos grandes y preentrenados. He aquí un par de ejemplos concretos:

  1. Generación de textos y creación de contenidos: En la generación de texto, el ajuste de las instrucciones puede utilizarse para refinar el estilo, el tono o el tema del texto generado. Por ejemplo, si quieres generar textos de marketing utilizando un modelo preentrenado, puedes ajustar las instrucciones específicamente para el lenguaje publicitario, la voz de la marca o las descripciones de productos. Esto permite generar contenidos muy personalizados sin necesidad de volver a entrenar todo el modelo. Herramientas como LangChain pueden utilizarse para crear sofisticadas cadenas de instrucciones, mejorando aún más el control sobre el contenido generado.

  2. Análisis de sentimientos: En tareas como el análisis de sentimientos, el ajuste de las instrucciones permite adaptar un modelo lingüístico de uso general a dominios específicos, como el análisis de las opiniones de los clientes sobre un producto o una marca concretos. Al ajustar las instrucciones con ejemplos relevantes para el dominio de destino, el modelo puede ser más preciso a la hora de comprender los matices y expresar el sentimiento dentro de ese contexto específico.

Ajuste rápido vs. Ajuste fino

Aunque tanto el ajuste rápido como el ajuste fino pretenden adaptar modelos preentrenados, difieren significativamente en su enfoque. El ajuste fino implica actualizar todos o la mayoría de los parámetros del modelo preentrenado utilizando un nuevo conjunto de datos relevantes para la tarea objetivo. Esto requiere un gran esfuerzo informático, pero puede dar lugar a una gran precisión, especialmente cuando se dispone de un gran conjunto de datos específicos de la tarea.

En cambio, la sintonización de avisos mantiene fijos los pesos del modelo preentrenado y sólo optimiza un pequeño aviso específico de la tarea. Es menos exigente desde el punto de vista computacional y más eficiente desde el punto de vista de los parámetros. El ajuste rápido es especialmente ventajoso cuando los datos son limitados o se necesita una adaptación rápida. También es beneficioso cuando quieres preservar las capacidades generales del modelo preentrenado mientras lo especializas para una tarea concreta.

En resumen, Prompt Tuning ofrece una forma potente, eficaz y accesible de aprovechar las capacidades de grandes modelos preentrenados para aplicaciones específicas, lo que representa un avance significativo en el campo de la IA.

Leer todo