Glosario

LoRA (Adaptación de bajo rango)

Descubre cómo LoRA afina grandes modelos de IA como YOLO de forma eficiente, reduciendo costes y permitiendo el despliegue en el borde con recursos mínimos.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

LoRA, o Adaptación de Bajo Rango, es una técnica de ajuste fino eficiente de los parámetros, especialmente útil en el campo de los grandes modelos lingüísticos y, por extensión, de otros grandes modelos de IA, incluidos los utilizados en visión por ordenador. En esencia, LoRA permite la adaptación eficaz de modelos preentrenados a tareas o conjuntos de datos específicos, sin necesidad de volver a entrenar todo el modelo, lo que puede resultar caro desde el punto de vista informático y llevar mucho tiempo.

¿Qué es la LoRA?

LoRA se centra en la idea de que los cambios necesarios para adaptar un modelo preentrenado a una nueva tarea a menudo se encuentran en un subespacio de menor dimensión. En lugar de actualizar todos los parámetros de un modelo grande, LoRA congela los pesos del modelo preentrenado e inyecta un número menor de parámetros nuevos, conocidos como matrices de "bajo rango", en cada capa de la arquitectura Transformer. Durante el ajuste fino, sólo se entrenan estas matrices de bajo rango recién añadidas, lo que reduce significativamente el número de parámetros entrenables. Este enfoque reduce drásticamente los costes computacionales y los requisitos de memoria, al tiempo que consigue un rendimiento comparable al del ajuste fino completo.

Este método es especialmente beneficioso cuando se trabaja con modelos como los grandes modelos lingüísticos (LLM) o incluso los grandes modelos de visión, como los modelos Ultralytics YOLO , en los que el ajuste fino completo puede resultar poco práctico debido al gran tamaño de los modelos. Utilizando LoRA, los investigadores y los profesionales pueden personalizar eficazmente estos potentes modelos para aplicaciones específicas con recursos limitados.

Relevancia y aplicaciones de la LoRA

La principal relevancia de LoRA reside en su eficiencia. Permite el ajuste fino de modelos masivos preentrenados en GPU de consumo o incluso en dispositivos periféricos, haciendo más accesible la IA avanzada. Esto tiene amplias implicaciones en diversas aplicaciones:

  • Modelos personalizados: LoRA permite crear modelos de IA personalizados adaptados a las preferencias individuales de los usuarios o a necesidades específicas. Por ejemplo, en los sistemas de recomendación personalizados o en la generación de contenidos a medida, LoRA puede adaptar un modelo general a los datos individuales del usuario de forma eficaz. Esto puede ser especialmente útil en aplicaciones como la mejora de las experiencias de usuario con asistentes virtuales basados en IA o la creación de contenidos a medida en campos creativos.

  • Adaptación eficiente al dominio: En situaciones en las que un modelo preentrenado debe adaptarse a un dominio muy específico, como el análisis de imágenes médicas o las aplicaciones industriales especializadas, LoRA puede utilizarse para ajustar eficazmente el modelo sin necesidad de un reentrenamiento exhaustivo. Por ejemplo, adaptar un modelo dedetección de objetos de Ultralytics YOLO a una tarea muy específica de detección de defectos de fabricación puede agilizarse utilizando LoRA. Esta eficacia es crucial para una rápida implantación e iteración en campos especializados.

  • Despliegue en el borde: El tamaño reducido de los modelos adaptados a LoRA en comparación con los modelos totalmente ajustados los hace más adecuados para su despliegue en dispositivos informáticos de borde con recursos computacionales limitados, como teléfonos inteligentes o sistemas integrados. Esto facilita la inferencia en tiempo real y el procesamiento de IA en el dispositivo, abriendo posibilidades para aplicaciones como la detección de objetos en tiempo real en hardware con recursos limitados o aplicaciones móviles eficientes.

LoRA vs. Ajuste fino completo

El ajuste fino tradicional implica actualizar todos los parámetros de un modelo preentrenado. Aunque esto puede dar resultados excelentes, es caro desde el punto de vista informático y requiere un espacio de almacenamiento considerable para cada modelo ajustado. LoRA ofrece una alternativa convincente:

  • Reducción del coste computacional: Al entrenar sólo las matrices de bajo rango, se reduce significativamente el número de cálculos. Esto hace que el ajuste sea más rápido y consuma menos recursos.
  • Menor huella de memoria: LoRA crea modelos afinados mucho más pequeños, ya que sólo se añaden y entrenan las matrices de bajo rango, no todo el modelo original. Esto es beneficioso para el almacenamiento y el despliegue, especialmente en entornos con memoria limitada.
  • Experimentación más rápida: La eficacia de LoRA permite una experimentación más rápida con diferentes tareas y conjuntos de datos, acelerando el ciclo de desarrollo y despliegue de las aplicaciones de IA.

Aunque en algunos casos puede seguir prefiriéndose el ajuste fino completo para lograr la mayor precisión posible, LoRA proporciona un enfoque potente y práctico para una adaptación eficaz, que logra un equilibrio entre el rendimiento y la utilización de recursos, y hace que las técnicas avanzadas de IA sean más accesibles. Herramientas como Ultralytics HUB pueden agilizar aún más el proceso de gestión y despliegue de modelos adaptados a LoRA, proporcionando una plataforma fácil de usar para aprovechar esta eficaz técnica de ajuste fino.

Leer todo