Optimiza modelos grandes de forma eficiente com LoRA! Reduz os custos, adapta-se mais rapidamente e implementa de forma mais inteligente com técnicas de afinação escaláveis e de baixa classificação.
A LoRA (Low-Rank Adaptation) é uma técnica concebida para otimizar o processo de afinação de grandes modelos de aprendizagem automática, introduzindo matrizes de baixa classificação na sua arquitetura. Este método reduz significativamente os requisitos computacionais e de armazenamento associados ao ajuste fino tradicional, tornando-o uma opção eficiente e económica para adaptar modelos pré-treinados a tarefas específicas.
O LoRA modifica os pesos de um modelo pré-treinado injetando matrizes de baixa classificação em camadas específicas. Em vez de atualizar todos os parâmetros de um modelo durante o ajuste fino, apenas um pequeno subconjunto de parâmetros - aqueles dentro dessas matrizes de baixo grau - são otimizados. Essa abordagem mantém a maior parte da estrutura original do modelo, enquanto o adapta a novas tarefas. Os pesos pré-treinados permanecem congelados, o que ajuda a preservar o conhecimento do modelo original.
Ao concentrar-se em actualizações de baixo grau, o LoRA reduz o número de parâmetros treináveis, levando a um treino mais rápido e a uma menor utilização de memória. Isto torna-o especialmente benéfico para a implementação de grandes modelos de linguagem (LLMs) e outras arquitecturas complexas em ambientes com recursos limitados.
Para uma compreensão mais aprofundada das técnicas de afinação, podes explorar a afinação eficiente de parâmetros (PEFT).
O LoRA tem sido amplamente utilizado em tarefas de PNL para afinar modelos linguísticos de grande dimensão, como o GPT e o BERT, para aplicações específicas de um domínio. Por exemplo:
Sabe mais sobre a forma como a modelação e o aperfeiçoamento da linguagem contribuem para os avanços da PNL.
Na visão computacional, o LoRA tem sido utilizado para adaptar grandes modelos, como os Transformadores de Visão (ViT), a tarefas como a classificação de imagens, a deteção de objectos e a segmentação. Por exemplo:
Explora mais sobre a deteção de objectos e a segmentação de imagens para compreender o seu impacto.
O ajuste fino tradicional actualiza todos os parâmetros de um modelo, o que pode ser computacionalmente dispendioso e exigir muita memória. Em contrapartida, o LoRA actualiza seletivamente um pequeno subconjunto de parâmetros, tornando-o mais leve e escalável.
Enquanto o LoRA modifica os pesos internos do modelo, o prompt tuning concentra-se na otimização dos prompts de entrada. Ambos os métodos são eficientes, mas atendem a diferentes casos de uso - o ajuste de prompt é normalmente usado para geração de texto, enquanto o LoRA é mais versátil entre as tarefas.
Ultralytics suporta uma vasta gama de tarefas de aprendizagem automática e visão computacional em que os princípios de LoRA podem ser aplicados. Os utilizadores podem tirar partido de ferramentas como o Ultralytics HUB para treinar e implementar modelos personalizados de forma eficiente. Com soluções de ponta como Ultralytics YOLOa integração de técnicas inspiradas em LoRA em fluxos de trabalho pode otimizar ainda mais o desempenho do modelo para aplicações em tempo real.
A LoRA exemplifica a forma como as técnicas inovadoras podem tornar a aprendizagem automática avançada mais acessível e eficiente, conduzindo a soluções com impacto em todos os sectores.