Glossário

Afinação eficiente de parâmetros (PEFT)

Descobre o Parameter-Efficient Fine-Tuning (PEFT) para adaptar grandes modelos de IA com recursos mínimos. Poupa custos, evita o sobreajuste e optimiza a implementação!

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A afinação eficiente de parâmetros (Parameter-Efficient Fine-Tuning - PEFT) é um conjunto de técnicas de aprendizagem automática concebidas para adaptar eficazmente modelos pré-treinados a tarefas específicas a jusante, afinando apenas um pequeno número de parâmetros do modelo. Esta abordagem é particularmente relevante na era dos modelos de linguagem de grande dimensão (LLM) e de outros modelos de IA de grande escala, em que o ajustamento fino completo pode ser computacionalmente dispendioso e exigir muitos recursos. Os métodos PEFT reduzem significativamente os custos computacionais e de armazenamento, tornando viável a personalização destes modelos maciços para uma gama mais vasta de aplicações e a sua implementação em ambientes com recursos limitados.

Relevância e aplicações

A importância do Parameter-Efficient Fine-Tuning decorre da sua capacidade de democratizar o acesso a modelos poderosos e pré-treinados. Em vez de treinar um grande modelo a partir do zero ou de afinar todos os seus parâmetros para cada nova tarefa, o PEFT permite que os programadores e investigadores obtenham um desempenho comparável ajustando apenas uma fração dos parâmetros originais. Esta eficiência tem várias vantagens e aplicações importantes:

  • Custo computacional reduzido: A afinação tradicional de modelos de grandes dimensões requer recursos computacionais e tempo substanciais. As técnicas PEFT reduzem drasticamente estes requisitos, permitindo uma experimentação e implementação mais rápidas e tornando a IA mais acessível a indivíduos e organizações com recursos limitados. Isto é especialmente benéfico quando se utilizam plataformas como Ultralytics HUB Cloud Training, onde uma formação eficiente se traduz diretamente em poupanças de custos e ciclos de iteração mais rápidos.
  • Reduz os requisitos de armazenamento: O ajuste fino de todos os parâmetros de um modelo grande resulta em várias cópias em tamanho real para cada tarefa. Os métodos PEFT, ao modificarem apenas um pequeno subconjunto de parâmetros, resultam em modelos de ajuste fino significativamente menores. Isto é crucial para a implementação de modelos em dispositivos de ponta ou em cenários onde o armazenamento é limitado.
  • Evita o sobreajuste: Ao fazer o ajuste fino de modelos grandes em conjuntos de dados pequenos, existe o risco de sobreajuste, em que o modelo aprende a ter um bom desempenho nos dados de treinamento, mas generaliza mal para dados novos e não vistos. Os métodos PEFT podem atuar como uma forma de regularização, uma vez que restringem a adaptação do modelo, conduzindo potencialmente a uma melhor generalização.

As aplicações do PEFT no mundo real são diversas e estão a expandir-se rapidamente. Por exemplo, no Processamento de Linguagem Natural (PLN), o PEFT é utilizado para adaptar modelos de base como o GPT-3 ou o GPT-4 para tarefas específicas, como a análise de sentimentos, a sumarização de textos ou a resposta a perguntas. Na visão computacional, o PEFT pode ser aplicado a modelos de imagem pré-treinados para os especializar em tarefas como a análise de imagens médicas ou a deteção de objectos em domínios específicos, como a deteção de defeitos no fabrico ou a identificação de diferentes espécies na conservação da vida selvagem.

Conceitos-chave

O PEFT baseia-se nos princípios da aprendizagem por transferência e do aperfeiçoamento. A aprendizagem por transferência consiste em aproveitar os conhecimentos adquiridos na resolução de um problema para os aplicar a um problema diferente mas relacionado. Neste contexto, o ajuste fino é o processo de pegar num modelo pré-treinado e treiná-lo num conjunto de dados novo e específico da tarefa.

No entanto, o ajuste fino tradicional envolve frequentemente a atualização de todos ou de uma parte significativa dos parâmetros do modelo pré-treinado. O PEFT distingue-se pela introdução de técnicas que modificam apenas uma pequena fração destes parâmetros. As técnicas comuns do PEFT incluem:

  • Módulos adaptadores: Adiciona pequenas camadas novas (adaptadores) ao modelo pré-treinado e treina apenas essas camadas adaptadoras, mantendo os pesos do modelo original congelados.
  • Ajuste de prefixos: Adiciona prefixos treináveis à entrada do modelo, que orientam o comportamento do modelo para a nova tarefa.
  • Adaptação de baixa classificação (LoRA): Decompõe as matrizes de peso em matrizes de baixa classificação e treina apenas estas matrizes mais pequenas e de baixa classificação.

Estes métodos contrastam com o ajuste fino completo, que actualiza todos os parâmetros do modelo, e com a poda do modelo, que reduz o tamanho do modelo através da remoção de ligações menos importantes. O PEFT concentra-se na adaptação eficiente em vez de na redução do tamanho ou no retreinamento completo.

Resumindo, o Parameter-Efficient Fine-Tuning é um avanço crucial para tornar os grandes modelos de IA mais práticos e acessíveis. Ao reduzir significativamente a sobrecarga computacional e de armazenamento, mantendo o alto desempenho, o PEFT permite que uma comunidade mais ampla aproveite o poder da IA de última geração para aplicações diversas e especializadas, incluindo aquelas que podem ser alcançadas com modelos como Ultralytics YOLO11.

Lê tudo