Glosario

LoRA (Adaptación de bajo rango)

¡Optimiza grandes modelos de forma eficaz con LoRA! Reduce costes, adáptate más rápido e implántate de forma más inteligente con técnicas escalables de ajuste fino de bajo rango.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

LoRA (Adaptación de Bajo Rango) es una técnica diseñada para optimizar el proceso de ajuste fino de grandes modelos de aprendizaje automático mediante la introducción de matrices de bajo rango en su arquitectura. Este método reduce significativamente los requisitos informáticos y de almacenamiento asociados al ajuste fino tradicional, lo que lo convierte en una opción eficaz y rentable para adaptar modelos preentrenados a tareas específicas.

Cómo funciona la LoRA

LoRA modifica los pesos de un modelo preentrenado inyectando matrices de bajo rango en capas específicas. En lugar de actualizar todos los parámetros de un modelo durante el ajuste fino, sólo se optimiza un pequeño subconjunto de parámetros, los que están dentro de estas matrices de bajo rango. Este enfoque conserva la mayor parte de la estructura original del modelo, al tiempo que lo adapta a las nuevas tareas. Los pesos preentrenados permanecen congelados, lo que ayuda a preservar los conocimientos del modelo original.

Al centrarse en las actualizaciones de bajo rango, LoRA reduce el número de parámetros entrenables, lo que permite un entrenamiento más rápido y un menor uso de memoria. Esto lo hace especialmente beneficioso para desplegar grandes modelos lingüísticos (LLM) y otras arquitecturas complejas en entornos con recursos limitados.

Ventajas de la LoRA

  • Eficacia: LoRA reduce el coste computacional del ajuste fino de grandes modelos centrándose en las actualizaciones de bajo rango en lugar de modificar todos los parámetros.
  • Flexibilidad: Permite reutilizar un único modelo preentrenado para múltiples tareas con una sobrecarga mínima.
  • Escalabilidad: LoRA puede aplicarse a una amplia gama de arquitecturas, incluidos los transformadores y las redes neuronales convolucionales (CNN).

Para profundizar en las técnicas de ajuste fino, puedes explorar el Ajuste Fino Eficaz de Parámetros (PEFT).

Aplicaciones reales de LoRA

1. Procesamiento del Lenguaje Natural (PLN)

LoRA se ha utilizado ampliamente en tareas de PNL para afinar grandes modelos lingüísticos como GPT y BERT para aplicaciones específicas del dominio. Por ejemplo:

  • Chatbots: Perfeccionar un modelo lingüístico de uso general para crear un chatbot de atención al cliente para un sector específico.
  • Análisis de Sentimientos: Permitir la clasificación de sentimientos para conjuntos de datos nicho sin reentrenar todo el modelo.

Obtén más información sobre cómo el modelado y el ajuste del lenguaje contribuyen a los avances de la PNL.

2. Visión por ordenador

En visión por ordenador, el LoRA se ha utilizado para adaptar grandes modelos como los Transformadores de Visión (ViT) a tareas como la clasificación de imágenes, la detección de objetos y la segmentación. Por ejemplo

  • Imágenes médicas: Perfeccionamiento de un modelo preentrenado para detectar anomalías en exploraciones médicas utilizando un conjunto de datos de tamaño limitado.
  • Análisis de comercios: Personalización de un modelo de visión por ordenador para detectar productos específicos en entornos minoristas.

Explora más sobre la detección de objetos y la segmentación de imágenes para comprender su impacto.

Comparación con otras técnicas

LoRA vs. Ajuste fino completo

El ajuste fino tradicional actualiza todos los parámetros de un modelo, lo que puede resultar caro desde el punto de vista informático y consumir mucha memoria. En cambio, LoRA actualiza selectivamente un pequeño subconjunto de parámetros, lo que lo hace más ligero y escalable.

Ajuste LoRA vs. Prompt

Mientras que LoRA modifica los pesos internos del modelo, el ajuste de los avisos se centra en optimizar los avisos de entrada. Ambos métodos son eficaces, pero se adaptan a diferentes casos de uso: el ajuste de avisos se utiliza normalmente para la generación de texto, mientras que LoRA es más versátil en todas las tareas.

Integración con Ultralytics

Ultralytics admite una amplia gama de tareas de aprendizaje automático y visión por ordenador en las que se pueden aplicar los principios de LoRA. Los usuarios pueden aprovechar herramientas como Ultralytics HUB para entrenar y desplegar modelos personalizados de forma eficiente. Con soluciones de vanguardia como Ultralytics YOLOla integración de técnicas inspiradas en LoRA en los flujos de trabajo puede optimizar aún más el rendimiento de los modelos para aplicaciones en tiempo real.

Recursos para seguir explorando

  • Explora el blogUltralytics para conocer las técnicas más avanzadas en IA y aprendizaje automático.
  • Aprende sobre el papel del aprendizaje por transferencia en la adaptación de modelos preentrenados a nuevas tareas.
  • Sumérgete en la IA explicable (XAI ) para comprender cómo los métodos de ajuste fino como LoRA pueden contribuir a modelos más interpretables.

LoRA ejemplifica cómo las técnicas innovadoras pueden hacer que el aprendizaje automático avanzado sea más accesible y eficiente, impulsando soluciones impactantes en todos los sectores.

Leer todo