Descubra como o LoRA ajusta grandes modelos de IA como o YOLO de forma eficiente, reduzindo custos e permitindo a implantação de borda com recursos mínimos.
LoRA, ou Low-Rank Adaptation, é uma técnica altamente eficiente utilizada para adaptar modelos de aprendizagem automática (ML) grandes e pré-treinados para tarefas específicas sem a necessidade de treinar novamente todo o modelo. Originalmente detalhado num artigo de investigadores da Microsoft, o LoRA tornou-se uma pedra angular do Parameter-Efficient Fine-Tuning (PEFT). Reduz drasticamente o custo computacional e os requisitos de armazenamento associados à personalização de modelos maciços, como os LLMs (Large Language Models) e outros modelos de base.
Em vez de atualizar os milhares de milhões de pesos do modelo num modelo pré-treinado, o LoRA congela-os a todos. Em seguida, ele injeta um par de matrizes pequenas e treináveis - chamadas adaptadores de baixo ranque - em camadas específicas do modelo, geralmente dentro do mecanismo de atenção de uma arquitetura Transformer. Durante o processo de treino, apenas os parâmetros destas novas matrizes, muito mais pequenas, são actualizados. A ideia central é que as alterações necessárias para adaptar o modelo a uma nova tarefa podem ser representadas com muito menos parâmetros do que o modelo original contém. Isto aproveita princípios semelhantes aos da redução da dimensionalidade para capturar a informação essencial para a adaptação numa forma compacta. Uma vez concluído o treino, o pequeno adaptador pode ser fundido com os pesos originais ou mantido separado para a mudança modular de tarefas.
A eficiência do LoRA torna-o ideal para uma vasta gama de aplicações, especialmente quando são necessários vários modelos personalizados.
É útil distinguir o LoRA de outras técnicas de adaptação de modelos:
Em resumo, o LoRA fornece uma maneira poderosa e eficiente em termos de recursos para personalizar grandes modelos de base pré-treinados para uma ampla gama de tarefas específicas no Processamento de Linguagem Natural (PLN) e na visão computacional, tornando a IA avançada mais prática e acessível. Essa abordagem permite o gerenciamento e a implantação fáceis de muitos modelos especializados, um processo simplificado por plataformas como o Ultralytics HUB para gerenciar ciclos de vida de modelos.