Glossário

LoRA (Low-Rank Adaptation)

Optimiza modelos grandes de forma eficiente com LoRA! Reduz os custos, adapta-se mais rapidamente e implementa de forma mais inteligente com técnicas de afinação escaláveis e de baixa classificação.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A LoRA (Low-Rank Adaptation) é uma técnica concebida para otimizar o processo de afinação de grandes modelos de aprendizagem automática, introduzindo matrizes de baixa classificação na sua arquitetura. Este método reduz significativamente os requisitos computacionais e de armazenamento associados ao ajuste fino tradicional, tornando-o uma opção eficiente e económica para adaptar modelos pré-treinados a tarefas específicas.

Como funciona o LoRA

O LoRA modifica os pesos de um modelo pré-treinado injetando matrizes de baixa classificação em camadas específicas. Em vez de atualizar todos os parâmetros de um modelo durante o ajuste fino, apenas um pequeno subconjunto de parâmetros - aqueles dentro dessas matrizes de baixo grau - são otimizados. Essa abordagem mantém a maior parte da estrutura original do modelo, enquanto o adapta a novas tarefas. Os pesos pré-treinados permanecem congelados, o que ajuda a preservar o conhecimento do modelo original.

Ao concentrar-se em actualizações de baixo grau, o LoRA reduz o número de parâmetros treináveis, levando a um treino mais rápido e a uma menor utilização de memória. Isto torna-o especialmente benéfico para a implementação de grandes modelos de linguagem (LLMs) e outras arquitecturas complexas em ambientes com recursos limitados.

Vantagens da LoRA

  • Eficiência: O LoRA reduz o custo computacional do ajuste fino de grandes modelos, concentrando-se em actualizações de baixo grau em vez de modificar todos os parâmetros.
  • Flexibilidade: Permite a reutilização de um único modelo pré-treinado para várias tarefas com um mínimo de sobrecarga.
  • Escalabilidade: O LoRA pode ser aplicado a uma vasta gama de arquitecturas, incluindo transformadores e redes neuronais convolucionais (CNN).

Para uma compreensão mais aprofundada das técnicas de afinação, podes explorar a afinação eficiente de parâmetros (PEFT).

Aplicações reais de LoRA

1. Processamento de linguagem natural (PNL)

O LoRA tem sido amplamente utilizado em tarefas de PNL para afinar modelos linguísticos de grande dimensão, como o GPT e o BERT, para aplicações específicas de um domínio. Por exemplo:

  • Chatbots: Aperfeiçoa um modelo de linguagem de uso geral para criar um chatbot de apoio ao cliente para um sector específico.
  • Análise de sentimentos: Permite a classificação de sentimentos para conjuntos de dados de nicho sem treinar novamente o modelo inteiro.

Sabe mais sobre a forma como a modelação e o aperfeiçoamento da linguagem contribuem para os avanços da PNL.

2. Visão computacional

Na visão computacional, o LoRA tem sido utilizado para adaptar grandes modelos, como os Transformadores de Visão (ViT), a tarefas como a classificação de imagens, a deteção de objectos e a segmentação. Por exemplo:

  • Imagiologia médica: Afinação de um modelo pré-treinado para detetar anomalias em exames médicos utilizando um conjunto de dados de tamanho limitado.
  • Análise de retalho: Personalização de um modelo de visão por computador para detetar produtos específicos em ambientes de retalho.

Explora mais sobre a deteção de objectos e a segmentação de imagens para compreender o seu impacto.

Comparação com outras técnicas

LoRA vs. Afinação total

O ajuste fino tradicional actualiza todos os parâmetros de um modelo, o que pode ser computacionalmente dispendioso e exigir muita memória. Em contrapartida, o LoRA actualiza seletivamente um pequeno subconjunto de parâmetros, tornando-o mais leve e escalável.

LoRA vs. Ajustamento imediato

Enquanto o LoRA modifica os pesos internos do modelo, o prompt tuning concentra-se na otimização dos prompts de entrada. Ambos os métodos são eficientes, mas atendem a diferentes casos de uso - o ajuste de prompt é normalmente usado para geração de texto, enquanto o LoRA é mais versátil entre as tarefas.

Integração com Ultralytics

Ultralytics suporta uma vasta gama de tarefas de aprendizagem automática e visão computacional em que os princípios de LoRA podem ser aplicados. Os utilizadores podem tirar partido de ferramentas como o Ultralytics HUB para treinar e implementar modelos personalizados de forma eficiente. Com soluções de ponta como Ultralytics YOLOa integração de técnicas inspiradas em LoRA em fluxos de trabalho pode otimizar ainda mais o desempenho do modelo para aplicações em tempo real.

Recursos para uma exploração mais aprofundada

  • Explora o blogueUltralytics para obteres informações sobre técnicas de ponta em IA e aprendizagem automática.
  • Aprende sobre o papel da aprendizagem por transferência na adaptação de modelos pré-treinados a novas tarefas.
  • Mergulha na IA explicável (XAI) para compreenderes como os métodos de afinação, como o LoRA, podem contribuir para modelos mais interpretáveis.

A LoRA exemplifica a forma como as técnicas inovadoras podem tornar a aprendizagem automática avançada mais acessível e eficiente, conduzindo a soluções com impacto em todos os sectores.

Lê tudo