Glosario

Ajuste fino eficiente de parámetros (PEFT)

Descubre el Ajuste Fino Eficaz de Parámetros (PEFT) para adaptar grandes modelos de IA con recursos mínimos. Ahorra costes, evita el sobreajuste y optimiza el despliegue.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

El ajuste fino eficiente de parámetros (PEFT) es un conjunto de técnicas de aprendizaje automático diseñadas para adaptar eficazmente los modelos preentrenados a tareas posteriores específicas, ajustando sólo un pequeño número de parámetros del modelo. Este enfoque es especialmente relevante en la era de los grandes modelos lingüísticos (LLM) y otros modelos de IA a gran escala, en la que el ajuste fino completo puede ser caro computacionalmente y consumir muchos recursos. Los métodos PEFT reducen significativamente los costes computacionales y de almacenamiento, lo que hace factible personalizar estos modelos masivos para una gama más amplia de aplicaciones y desplegarlos en entornos con recursos limitados.

Relevancia y aplicaciones

La importancia del Ajuste Fino Eficaz de Parámetros radica en su capacidad para democratizar el acceso a modelos potentes y preentrenados. En lugar de entrenar un gran modelo desde cero o ajustar con precisión todos sus parámetros para cada nueva tarea, PEFT permite a los desarrolladores e investigadores conseguir un rendimiento comparable ajustando sólo una fracción de los parámetros originales. Esta eficacia tiene varias ventajas y aplicaciones clave:

  • Menor coste computacional: El ajuste fino tradicional de grandes modelos requiere recursos informáticos y tiempo considerables. Las técnicas PEFT reducen drásticamente estos requisitos, permitiendo una experimentación y despliegue más rápidos, y haciendo la IA más accesible a personas y organizaciones con recursos limitados. Esto es especialmente beneficioso cuando se utilizan plataformas como Ultralytics HUB Cloud Training, donde un entrenamiento eficiente se traduce directamente en ahorro de costes y ciclos de iteración más rápidos.
  • Menores requisitos de almacenamiento: El ajuste fino de todos los parámetros de un modelo grande da lugar a múltiples copias a tamaño completo para cada tarea. Los métodos PEFT, al modificar sólo un pequeño subconjunto de parámetros, dan lugar a modelos ajustados mucho más pequeños. Esto es crucial para el despliegue de modelos en dispositivos periféricos o en escenarios donde el almacenamiento es limitado.
  • Evitar el sobreajuste: Cuando se ajustan modelos grandes a conjuntos de datos pequeños, existe el riesgo de sobreajuste, en el que el modelo aprende a funcionar bien con los datos de entrenamiento, pero generaliza mal con datos nuevos y desconocidos. Los métodos PEFT pueden actuar como una forma de regularización, ya que limitan la adaptación del modelo, lo que puede conducir a una mejor generalización.

Las aplicaciones de PEFT en el mundo real son diversas y están en rápida expansión. Por ejemplo, en el Procesamiento del Lenguaje Natural (PLN), PEFT se utiliza para adaptar modelos básicos como GPT-3 o GPT-4 a tareas específicas como el análisis de sentimientos, el resumen de textos o la respuesta a preguntas. En visión por ordenador, la PEFT puede aplicarse a modelos de imagen preentrenados para especializarlos en tareas como el análisis de imágenes médicas o la detección de objetos en dominios específicos, como la detección de defectos en la fabricación o la identificación de distintas especies en la conservación de la vida salvaje.

Conceptos clave

El PEFT se basa en los principios del aprendizaje por transferencia y el ajuste. El aprendizaje por transferencia consiste en aprovechar los conocimientos adquiridos al resolver un problema para aplicarlos a otro problema distinto pero relacionado. El ajuste fino, en este contexto, es el proceso de tomar un modelo preentrenado y seguir entrenándolo en un nuevo conjunto de datos específicos de la tarea.

Sin embargo, el ajuste fino tradicional suele implicar la actualización de todos o de una parte significativa de los parámetros del modelo preentrenado. PEFT se distingue por introducir técnicas que sólo modifican una pequeña fracción de estos parámetros. Entre las técnicas habituales de PEFT se incluyen:

  • Módulos adaptadores: Añadir pequeñas capas nuevas (adaptadores) al modelo preentrenado y entrenar sólo estas capas adaptadoras, manteniendo congelados los pesos del modelo original.
  • Ajuste de prefijos: Añadir prefijos entrenables a la entrada del modelo, que guían el comportamiento del modelo para la nueva tarea.
  • Adaptación de bajo rango (LoRA): Descomponiendo las matrices de pesos en matrices de bajo rango y entrenando sólo estas matrices más pequeñas y de bajo rango.

Estos métodos contrastan con el ajuste fino completo, que actualiza todos los parámetros del modelo, y con la poda del modelo, que reduce el tamaño del modelo eliminando las conexiones menos importantes. El PEFT se centra en la adaptación eficaz, más que en la reducción del tamaño o el reentrenamiento completo.

En resumen, el Ajuste Fino Eficaz de Parámetros es un avance crucial para hacer que los grandes modelos de IA sean más prácticos y accesibles. Al reducir significativamente la sobrecarga computacional y de almacenamiento, manteniendo al mismo tiempo un alto rendimiento, PEFT permite a una comunidad más amplia aprovechar la potencia de la IA más avanzada para aplicaciones diversas y especializadas, incluidas las que se pueden conseguir con modelos como Ultralytics YOLO11.

Leer todo