A afinação eficiente de parâmetros (Parameter-Efficient Fine-Tuning - PEFT) descreve um conjunto de técnicas utilizadas na aprendizagem automática (ML) para adaptar modelos grandes e pré-treinados (como os modelos de fundação) a tarefas específicas a jusante sem necessidade de atualizar todos os parâmetros do modelo. Em vez disso, os métodos PEFT centram-se na modificação de apenas um pequeno subconjunto de parâmetros ou na adição de um pequeno número de novos parâmetros. Esta abordagem reduz drasticamente os custos computacionais e de armazenamento associados ao ajuste fino de modelos maciços, tais como modelos de linguagem de grande dimensão (LLM) ou modelos de visão de grande escala utilizados na visão computacional (CV), tornando a personalização mais acessível e eficiente.
Relevância e benefícios
O surgimento de modelos pré-treinados extremamente grandes, muitas vezes contendo milhares de milhões de parâmetros, tornou os métodos tradicionais de afinação intensivos em recursos. O ajuste fino completo desses modelos requer uma potência computacional significativa (muitas vezes, várias GPUs topo de gama), grandes quantidades de memória e um espaço de armazenamento considerável para cada modelo adaptado. O PEFT aborda esses desafios oferecendo vários benefícios importantes:
- Custo computacional reduzido: Treinar apenas uma pequena fração de parâmetros reduz significativamente a necessidade de hardware dispendioso e reduz o tempo de treino. Plataformas como o Ultralytics HUB Cloud Training podem simplificar ainda mais esse processo.
- Menores requisitos de armazenamento: Uma vez que o modelo original de grandes dimensões permanece inalterado, apenas o pequeno conjunto de parâmetros modificados ou adicionados tem de ser armazenado para cada tarefa, o que leva a uma poupança substancial de armazenamento.
- Mitiga o esquecimento catastrófico: Ao congelar a maioria dos pesos do modelo pré-treinado, o PEFT ajuda a evitar que o modelo perca o conhecimento geral que adquiriu durante o pré-treinamento ao aprender uma nova tarefa. Saiba mais sobre como superar o esquecimento catastrófico.
- Generalização melhorada em regimes de poucos dados: Por vezes, o ajuste fino de menos parâmetros pode levar a um melhor desempenho em tarefas com dados limitados, uma vez que reduz o risco de sobreajuste ao pequeno conjunto de dados.
- Implementação mais fácil: Conjuntos de parâmetros específicos de tarefas mais pequenos simplificam a implementação do modelo, especialmente em ambientes com recursos limitados, como dispositivos de IA de ponta.
Conceitos e técnicas fundamentais
O PEFT baseia-se no conceito de aprendizagem por transferência, em que o conhecimento de um modelo de base é aplicado a uma nova tarefa. Enquanto o ajuste fino padrão ajusta muitas (ou todas) as camadas, o PEFT emprega métodos especializados. Algumas técnicas populares de PEFT incluem:
- Adaptadores: Pequenos módulos de rede neural inseridos entre as camadas existentes do modelo pré-treinado. Apenas os parâmetros dessas novas camadas de adaptadores são treinados. Para mais informações, consulta o artigo de investigação original sobre adaptadores.
- LoRA (Low-Rank Adaptation): Injeta matrizes treináveis de baixo ranqueamento nas camadas da arquitetura do transformador, aproximando as atualizações de peso e reduzindo drasticamente o número de parâmetros treináveis.
- Ajuste de prefixo: Adiciona um pequeno conjunto de vetores de prefixo treináveis à entrada das camadas transformadoras, influenciando o mecanismo de atenção do modelo sem modificar os pesos originais. Lê o documento Prefix-Tuning.
- Sintonização de prompts: Aprende prompts suaves (embeddings de vectores contínuos) anexados à sequência de entrada, orientando o comportamento do modelo congelado para a tarefa específica.
Bibliotecas como a bibliotecaHugging Face PEFT fornecem implementações de vários métodos PEFT.
Distinção de conceitos relacionados
É importante distinguir a PEFT de outras técnicas de adaptação e otimização de modelos:
- Ajuste fino completo: Actualiza todos ou uma grande parte dos parâmetros do modelo pré-treinado. É computacionalmente dispendioso, mas pode atingir um elevado desempenho se estiverem disponíveis dados e recursos suficientes.
- Poda de modelos: Visa reduzir o tamanho do modelo e a latência da inferência, removendo parâmetros redundantes ou sem importância (pesos ou conexões) de um modelo treinado. Ao contrário do PEFT, a poda centra-se na compressão e não na adaptação da tarefa.
- Destilação de conhecimento: Envolve o treinamento de um modelo "aluno" menor para imitar a saída ou o comportamento de um modelo "professor" maior. O objetivo é transferir conhecimentos para um melhor desempenho do modelo mais pequeno, enquanto que o PEFT adapta diretamente o modelo maior com alterações mínimas.
- Afinação de hiperparâmetros: Concentra-se em encontrar as definições de configuração ideais (como a taxa de aprendizagem ou o tamanho do lote) para o processo de treino, em vez de modificar os parâmetros do modelo diretamente para a adaptação da tarefa.
Aplicações no mundo real
O PEFT permite a aplicação prática de grandes modelos em vários domínios:
- Processamento de linguagem natural (NLP): Adaptação de modelos básicos como GPT-4 ou BERT para tarefas específicas, como a criação de chatbots especializados para atendimento ao cliente, a realização de análise de sentimento direcionada para pesquisa de mercado ou o resumo de documentos específicos de um domínio (por exemplo, textos jurídicos ou médicos). Muitos recursos estão disponíveis em grupos como o Stanford NLP Group.
- Visão computacional: Personaliza modelos de visão poderosos, incluindo Ultralytics YOLO da Ultralytics, para tarefas especializadas de deteção de objectos ou segmentação de imagens. Os exemplos incluem a identificação de tipos específicos de defeitos numa linha de montagem de fabrico utilizando um modelo inicialmente treinado em conjuntos de dados gerais como o COCO, ou a adaptação de modelos para uma análise precisa de imagens médicas ou o seguimento de espécies ameaçadas na conservação da vida selvagem.
Essencialmente, o Parameter-Efficient Fine-Tuning torna os modelos de IA de última geração, como os modelosYOLO Ultralytics , mais versáteis e económicos para se adaptarem a uma vasta gama de aplicações específicas, democratizando o acesso a poderosas capacidades de IA.