Glossário

LoRA (Low-Rank Adaptation)

Descubra como o LoRA ajusta grandes modelos de IA como o YOLO de forma eficiente, reduzindo custos e permitindo a implantação de borda com recursos mínimos.

LoRA, ou Low-Rank Adaptation, é uma técnica altamente eficiente utilizada para adaptar modelos de aprendizagem automática (ML) grandes e pré-treinados para tarefas específicas sem a necessidade de treinar novamente todo o modelo. Originalmente detalhado num artigo de investigadores da Microsoft, o LoRA tornou-se uma pedra angular do Parameter-Efficient Fine-Tuning (PEFT). Reduz drasticamente o custo computacional e os requisitos de armazenamento associados à personalização de modelos maciços, como os LLMs (Large Language Models) e outros modelos de base.

Como funciona o LoRA

Em vez de atualizar os milhares de milhões de pesos do modelo num modelo pré-treinado, o LoRA congela-os a todos. Em seguida, ele injeta um par de matrizes pequenas e treináveis - chamadas adaptadores de baixo ranque - em camadas específicas do modelo, geralmente dentro do mecanismo de atenção de uma arquitetura Transformer. Durante o processo de treino, apenas os parâmetros destas novas matrizes, muito mais pequenas, são actualizados. A ideia central é que as alterações necessárias para adaptar o modelo a uma nova tarefa podem ser representadas com muito menos parâmetros do que o modelo original contém. Isto aproveita princípios semelhantes aos da redução da dimensionalidade para capturar a informação essencial para a adaptação numa forma compacta. Uma vez concluído o treino, o pequeno adaptador pode ser fundido com os pesos originais ou mantido separado para a mudança modular de tarefas.

Aplicações no mundo real

A eficiência do LoRA torna-o ideal para uma vasta gama de aplicações, especialmente quando são necessários vários modelos personalizados.

  • Personalizando Chatbots: Uma empresa pode usar um LLM poderoso e de uso geral e usar LoRA para treiná-lo em sua base de conhecimento interna. Isso cria um chatbot de atendimento ao cliente especializado que entende a terminologia específica da empresa sem o imenso custo de um ajuste fino completo.
  • Transferência de arte e estilo de IA: Os artistas e designers utilizam o LoRA para adaptar modelos de IA generativa, como o Stable Diffusion, a um estilo artístico específico. Ao treinar um adaptador num pequeno conjunto das suas próprias imagens, podem gerar nova arte que imita a sua estética única, uma prática popular em plataformas como a Hugging Face.

LoRA vs. Conceitos relacionados

É útil distinguir o LoRA de outras técnicas de adaptação de modelos:

  • Afinação total: Este método actualiza todos os pesos de um modelo pré-treinado num novo conjunto de dados. Embora muitas vezes eficaz, requer recursos computacionais significativos(GPU) e armazenamento para cada modelo adaptado. O LoRA, pelo contrário, congela os pesos originais e treina apenas as pequenas matrizes de adaptação injectadas. Encontre mais detalhes na entrada do nosso glossário de ajuste fino e na visão geral do ajuste fino da NVIDIA.
  • Ajuste de prompts: Esta técnica mantém os pesos do modelo completamente congelados e, em vez disso, aprende "soft prompts" contínuos (vectores adicionados aos embeddings de entrada) para orientar o comportamento do modelo para tarefas específicas. Ao contrário do LoRA, não modifica os pesos do modelo, mas concentra-se apenas na adaptação da representação da entrada. Leia mais sobre o ajuste e a engenharia de avisos.
  • Outros métodos PEFT: LoRA é apenas uma técnica dentro do campo mais amplo de Parameter-Efficient Fine-Tuning (PEFT). Outros métodos incluem Adapter Tuning (semelhante, mas com estruturas de adaptador ligeiramente diferentes), Prefix Tuning e IA³, cada um oferecendo diferentes compensações em eficiência de parâmetros e desempenho. Estes métodos estão normalmente disponíveis em estruturas como a biblioteca Hugging Face PEFT.

Em resumo, o LoRA fornece uma maneira poderosa e eficiente em termos de recursos para personalizar grandes modelos de base pré-treinados para uma ampla gama de tarefas específicas no Processamento de Linguagem Natural (PLN) e na visão computacional, tornando a IA avançada mais prática e acessível. Essa abordagem permite o gerenciamento e a implantação fáceis de muitos modelos especializados, um processo simplificado por plataformas como o Ultralytics HUB para gerenciar ciclos de vida de modelos.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência