Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Ajuste Fino Eficiente em Parâmetros (PEFT)

Explore o ajuste fino eficiente em parâmetros (PEFT) para otimizar modelos grandes, como Ultralytics . Aprenda a reduzir os custos de computação e a obter resultados SOTA em GPUs.

O ajuste fino eficiente de parâmetros (PEFT) é uma estratégia sofisticada de otimização em aprendizagem automática (ML) que permite a personalização de modelos grandes e pré-treinados para tarefas específicas, minimizando os custos computacionais. À medida que os modelos básicos modernos cresceram para abranger bilhões de parâmetros, os métodos tradicionais de treino que atualizam todos os pesos na rede tornaram-se proibitivamente caros em termos de hardware e energia. O PEFT resolve esse desafio congelando a grande maioria dos pesos do modelo pré-treinado e atualizando apenas um pequeno subconjunto de parâmetros ou adicionando camadas adaptadoras leves. Essa abordagem reduz a barreira de entrada, permitindo que os desenvolvedores obtenham resultados de ponta em GPUs de nível de consumidor sem a necessidade de data centers de escala industrial.

A mecânica da eficiência

O princípio central do PEFT baseia-se na aprendizagem por transferência, em que um modelo aproveita representações de características aprendidas a partir de enormes conjuntos de dados públicos, como o ImageNet para resolver novos problemas. Num fluxo de trabalho padrão, a adaptação de um modelo pode envolver um "ajuste fino completo", em que a retropropagação ajusta todos os parâmetros da rede neural.

As técnicas PEFT, como LoRA (Low-Rank Adaptation), seguem um caminho diferente. Elas mantêm a pesada "espinha dorsal" do modelo estática — preservando o seu conhecimento geral — e injetam pequenas matrizes treináveis em camadas específicas. Isso evita o esquecimento catastrófico, um fenómeno em que um modelo perde as suas capacidades originais enquanto aprende novas informações. Ao reduzir o número de parâmetros treináveis em até 99%, o PEFT diminui significativamente os requisitos de armazenamento e permite que vários adaptadores específicos para tarefas sejam trocados dentro e fora de um único modelo base durante a inferência em tempo real.

Aplicações no Mundo Real

O PEFT é particularmente valioso em setores onde a computação de ponta e a privacidade de dados são fundamentais.

  • IA na agricultura: As startups de tecnologia agrícola frequentemente implementam modelos em drones com bateria e poder de processamento limitados. Usando o PEFT, os engenheiros podem pegar um modelo altamente eficiente como o YOLO26 e ajustá-lo para detect pragas regionais detect , como a lagarta-do-cartucho, usando um pequeno conjunto de dados personalizado. Ao congelar a espinha dorsal, o treinamento pode ser feito rapidamente em um laptop, e o modelo resultante permanece leve o suficiente para processamento a bordo.
  • IA na área da saúde: Na análise de imagens médicas, os dados anotados são frequentemente escassos e caros de obter. Os hospitais utilizam o PEFT para adaptar modelos de visão de uso geral para identificar anomalias em exames de ressonância magnética. Como os parâmetros básicos são congelados, o modelo é menos propenso a sobreajuste no pequeno conjunto de dados, garantindo um desempenho diagnóstico robusto e preservando a privacidade dos dados dos pacientes.

Implementando camadas congeladas com Ultralytics

No Ultralytics , a eficiência dos parâmetros é frequentemente alcançada através do «congelamento» das camadas iniciais de uma rede. Isto garante que os extratores de características robustos permaneçam inalterados, enquanto apenas a cabeça ou as camadas posteriores se adaptam às novas classes. Esta é uma implementação prática dos princípios PEFT para a detecção de objetos.

O exemplo a seguir demonstra como treinar um modelo YOLO26 enquanto congela as primeiras 10 camadas da estrutura principal para economizar recursos computacionais:

from ultralytics import YOLO

# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")

# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)

Para equipas que desejam expandir esse processo, a Ultralytics oferece uma interface unificada para gerenciar conjuntos de dados, automatizar anotações e monitorar essas execuções de treinamento eficientes a partir da nuvem.

Distinguindo PEFT de conceitos relacionados

Para selecionar a estratégia de adaptação do modelo correta, é útil diferenciar PEFT de termos semelhantes:

  • Ajuste fino: Frequentemente referido como «ajuste fino completo», este processo atualiza todos os parâmetros do modelo. Embora ofereça plasticidade máxima, é computacionalmente dispendioso e requer o armazenamento de uma cópia completa do modelo para cada tarefa. O PEFT é uma subcategoria do ajuste fino focada na eficiência.
  • Engenharia de prompts: isso envolve a criação de entradas de texto para orientar a saída de um modelo sem alterar quaisquer pesos internos. O PEFT, por outro lado, altera matematicamente um subconjunto de pesos ou adaptadores para mudar permanentemente a forma como o modelo processa os dados.
  • Destilação de conhecimento: Esta técnica treina um pequeno modelo aluno para imitar um grande modelo professor. Embora resulte num modelo eficiente, é um método de compressão, enquanto o PEFT é um método de adaptação usado para ensinar novas habilidades a um modelo existente.

Ao democratizar o acesso à IA de alto desempenho, o PEFT permite que os programadores criem ferramentas especializadas para veículos autónomos e fabricação inteligente sem a necessidade de infraestrutura de supercomputadores.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora