Explore o ajuste fino eficiente em parâmetros (PEFT) para otimizar modelos grandes, como Ultralytics . Aprenda a reduzir os custos de computação e a obter resultados SOTA em GPUs.
O ajuste fino eficiente de parâmetros (PEFT) é uma estratégia sofisticada de otimização em aprendizagem automática (ML) que permite a personalização de modelos grandes e pré-treinados para tarefas específicas, minimizando os custos computacionais. À medida que os modelos básicos modernos cresceram para abranger bilhões de parâmetros, os métodos tradicionais de treino que atualizam todos os pesos na rede tornaram-se proibitivamente caros em termos de hardware e energia. O PEFT resolve esse desafio congelando a grande maioria dos pesos do modelo pré-treinado e atualizando apenas um pequeno subconjunto de parâmetros ou adicionando camadas adaptadoras leves. Essa abordagem reduz a barreira de entrada, permitindo que os desenvolvedores obtenham resultados de ponta em GPUs de nível de consumidor sem a necessidade de data centers de escala industrial.
O princípio central do PEFT baseia-se na aprendizagem por transferência, em que um modelo aproveita representações de características aprendidas a partir de enormes conjuntos de dados públicos, como o ImageNet para resolver novos problemas. Num fluxo de trabalho padrão, a adaptação de um modelo pode envolver um "ajuste fino completo", em que a retropropagação ajusta todos os parâmetros da rede neural.
As técnicas PEFT, como LoRA (Low-Rank Adaptation), seguem um caminho diferente. Elas mantêm a pesada "espinha dorsal" do modelo estática — preservando o seu conhecimento geral — e injetam pequenas matrizes treináveis em camadas específicas. Isso evita o esquecimento catastrófico, um fenómeno em que um modelo perde as suas capacidades originais enquanto aprende novas informações. Ao reduzir o número de parâmetros treináveis em até 99%, o PEFT diminui significativamente os requisitos de armazenamento e permite que vários adaptadores específicos para tarefas sejam trocados dentro e fora de um único modelo base durante a inferência em tempo real.
O PEFT é particularmente valioso em setores onde a computação de ponta e a privacidade de dados são fundamentais.
No Ultralytics , a eficiência dos parâmetros é frequentemente alcançada através do «congelamento» das camadas iniciais de uma rede. Isto garante que os extratores de características robustos permaneçam inalterados, enquanto apenas a cabeça ou as camadas posteriores se adaptam às novas classes. Esta é uma implementação prática dos princípios PEFT para a detecção de objetos.
O exemplo a seguir demonstra como treinar um modelo YOLO26 enquanto congela as primeiras 10 camadas da estrutura principal para economizar recursos computacionais:
from ultralytics import YOLO
# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")
# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
Para equipas que desejam expandir esse processo, a Ultralytics oferece uma interface unificada para gerenciar conjuntos de dados, automatizar anotações e monitorar essas execuções de treinamento eficientes a partir da nuvem.
Para selecionar a estratégia de adaptação do modelo correta, é útil diferenciar PEFT de termos semelhantes:
Ao democratizar o acesso à IA de alto desempenho, o PEFT permite que os programadores criem ferramentas especializadas para veículos autónomos e fabricação inteligente sem a necessidade de infraestrutura de supercomputadores.