Explora el ajuste fino eficiente en parámetros (PEFT) para optimizar modelos grandes como Ultralytics . Aprende a reducir los costes de computación y a obtener resultados SOTA en GPU.
El ajuste fino eficiente de parámetros (PEFT) es una sofisticada estrategia de optimización en aprendizaje automático (ML) que permite la personalización de grandes modelos preentrenados para tareas específicas, minimizando al mismo tiempo los costes computacionales. A medida que los modernos modelos básicos han crecido hasta abarcar miles de millones de parámetros, los métodos de entrenamiento tradicionales que actualizan cada peso de la red se han vuelto prohibitivamente costosos en términos de hardware y energía. El PEFT aborda este reto congelando la gran mayoría de los pesos del modelo preentrenado y actualizando solo un pequeño subconjunto de parámetros o añadiendo capas adaptadoras ligeras. Este enfoque reduce la barrera de entrada, lo que permite a los desarrolladores obtener resultados de vanguardia en GPU de consumo sin necesidad de centros de datos a escala industrial.
El principio fundamental de PEFT se basa en el aprendizaje por transferencia, en el que un modelo aprovecha las representaciones de características aprendidas a partir de enormes conjuntos de datos públicos como ImageNet para resolver nuevos problemas. En un flujo de trabajo estándar, la adaptación de un modelo puede implicar un «ajuste completo», en el que la retropropagación ajusta todos los parámetros de la red neuronal.
Las técnicas PEFT, como LoRA (Low-Rank Adaptation), toman un camino diferente. Mantienen estática la pesada «columna vertebral» del modelo, conservando su conocimiento general, e inyectan pequeñas matrices entrenables en capas específicas. Esto evita el olvido catastrófico, un fenómeno por el cual un modelo pierde sus capacidades originales mientras aprende nueva información. Al reducir el número de parámetros entrenables hasta en un 99 %, PEFT disminuye significativamente los requisitos de almacenamiento y permite intercambiar múltiples adaptadores específicos para cada tarea dentro y fuera de un único modelo base durante la inferencia en tiempo real.
PEFT es especialmente valioso en sectores en los que la computación periférica y la privacidad de los datos son fundamentales.
En el Ultralytics , la eficiencia de los parámetros se consigue a menudo «congelando» las capas iniciales de una red. Esto garantiza que los robustos extractores de características permanezcan inalterados, mientras que solo la cabeza o las capas posteriores se adaptan a las nuevas clases. Se trata de una aplicación práctica de los principios PEFT para la detección de objetos.
El siguiente ejemplo muestra cómo entrenar un modelo YOLO26 mientras se congelan las primeras 10 capas de la columna vertebral para ahorrar recursos de computación:
from ultralytics import YOLO
# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")
# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
Para los equipos que deseen ampliar este proceso, la Ultralytics ofrece una interfaz unificada para gestionar conjuntos de datos, automatizar las anotaciones y supervisar estas eficientes ejecuciones de entrenamiento desde la nube.
Para seleccionar la estrategia de adaptación del modelo adecuada, resulta útil diferenciar PEFT de términos similares:
Al democratizar el acceso a la IA de alto rendimiento, PEFT permite a los desarrolladores crear herramientas especializadas para vehículos autónomos y fabricación inteligente sin necesidad de infraestructura de supercomputación.