¡Optimiza grandes modelos de forma eficaz con LoRA! Reduce costes, adáptate más rápido e implántate de forma más inteligente con técnicas escalables de ajuste fino de bajo rango.
LoRA (Adaptación de Bajo Rango) es una técnica diseñada para optimizar el proceso de ajuste fino de grandes modelos de aprendizaje automático mediante la introducción de matrices de bajo rango en su arquitectura. Este método reduce significativamente los requisitos informáticos y de almacenamiento asociados al ajuste fino tradicional, lo que lo convierte en una opción eficaz y rentable para adaptar modelos preentrenados a tareas específicas.
LoRA modifica los pesos de un modelo preentrenado inyectando matrices de bajo rango en capas específicas. En lugar de actualizar todos los parámetros de un modelo durante el ajuste fino, sólo se optimiza un pequeño subconjunto de parámetros, los que están dentro de estas matrices de bajo rango. Este enfoque conserva la mayor parte de la estructura original del modelo, al tiempo que lo adapta a las nuevas tareas. Los pesos preentrenados permanecen congelados, lo que ayuda a preservar los conocimientos del modelo original.
Al centrarse en las actualizaciones de bajo rango, LoRA reduce el número de parámetros entrenables, lo que permite un entrenamiento más rápido y un menor uso de memoria. Esto lo hace especialmente beneficioso para desplegar grandes modelos lingüísticos (LLM) y otras arquitecturas complejas en entornos con recursos limitados.
Para profundizar en las técnicas de ajuste fino, puedes explorar el Ajuste Fino Eficaz de Parámetros (PEFT).
LoRA se ha utilizado ampliamente en tareas de PNL para afinar grandes modelos lingüísticos como GPT y BERT para aplicaciones específicas del dominio. Por ejemplo:
Obtén más información sobre cómo el modelado y el ajuste del lenguaje contribuyen a los avances de la PNL.
En visión por ordenador, el LoRA se ha utilizado para adaptar grandes modelos como los Transformadores de Visión (ViT) a tareas como la clasificación de imágenes, la detección de objetos y la segmentación. Por ejemplo
Explora más sobre la detección de objetos y la segmentación de imágenes para comprender su impacto.
El ajuste fino tradicional actualiza todos los parámetros de un modelo, lo que puede resultar caro desde el punto de vista informático y consumir mucha memoria. En cambio, LoRA actualiza selectivamente un pequeño subconjunto de parámetros, lo que lo hace más ligero y escalable.
Mientras que LoRA modifica los pesos internos del modelo, el ajuste de los avisos se centra en optimizar los avisos de entrada. Ambos métodos son eficaces, pero se adaptan a diferentes casos de uso: el ajuste de avisos se utiliza normalmente para la generación de texto, mientras que LoRA es más versátil en todas las tareas.
Ultralytics admite una amplia gama de tareas de aprendizaje automático y visión por ordenador en las que se pueden aplicar los principios de LoRA. Los usuarios pueden aprovechar herramientas como Ultralytics HUB para entrenar y desplegar modelos personalizados de forma eficiente. Con soluciones de vanguardia como Ultralytics YOLOla integración de técnicas inspiradas en LoRA en los flujos de trabajo puede optimizar aún más el rendimiento de los modelos para aplicaciones en tiempo real.
LoRA ejemplifica cómo las técnicas innovadoras pueden hacer que el aprendizaje automático avanzado sea más accesible y eficiente, impulsando soluciones impactantes en todos los sectores.