Glossário

Sintonização imediata

Optimiza modelos de linguagem de grande dimensão de forma eficiente com o Prompt Tuning - reduz os custos, poupa recursos e consegue uma adaptabilidade específica da tarefa sem esforço.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

O Prompt Tuning é uma técnica simplificada e eficiente para adaptar grandes modelos pré-treinados, em particular os modelos de linguagem de grande dimensão (LLM), a tarefas específicas a jusante sem atualizar todo o modelo. Em vez de modificar milhares de milhões de parâmetros, a afinação de prompts centra-se na aprendizagem de um pequeno conjunto de parâmetros de prompts específicos da tarefa, frequentemente designados por "prompts suaves", que são anexados à entrada. Esta abordagem reduz significativamente os custos computacionais e os requisitos de memória, tornando viável a adaptação de modelos maciços como o GPT-3 ou o GPT-4 para aplicações especializadas com recursos limitados.

Conceito e relevância

A ideia central por trás do Prompt Tuning é manter congelado o vasto conhecimento incorporado num modelo pré-treinado e orientar o seu comportamento utilizando vectores de avisos aprendidos. Estes avisos suaves são representações vectoriais contínuas optimizadas através de retropropagação, orientando eficazmente o modelo para o resultado desejado para uma tarefa específica. Ao contrário da engenharia de prompts tradicional, em que os prompts são textos criados manualmente, estes soft prompts são parâmetros aprendidos.

O Prompt Tuning é altamente relevante porque oferece uma forma de Parameter-Efficient Fine-Tuning (PEFT), reduzindo drasticamente o número de parâmetros que precisam de ser treinados e armazenados para cada tarefa. Para um modelo com milhares de milhões de parâmetros, a afinação rápida pode exigir apenas a otimização de alguns milhares ou milhões, conforme detalhado na investigação"The Power of Scale for Parameter-Efficient Prompt Tuning". Essa eficiência facilita a implantação de várias versões personalizadas de um modelo grande sem armazenamento proibitivo ou sobrecarga computacional, democratizando o uso de modelos de fundação poderosos.

Aplicações do ajuste rápido

O Prompt Tuning encontra aplicações onde a adaptação eficiente de grandes modelos é crucial. Eis dois exemplos concretos:

  1. Geração de texto personalizado: Uma empresa pretende utilizar um LLM geral, como o T5 daGoogle, para gerar um texto de marketing com a voz específica da sua marca. Em vez de afinar totalmente o modelo, pode usar o ajuste de prompts. Ao treinar avisos suaves em exemplos do estilo de texto desejado, pode orientar o LLM congelado para produzir resultados que correspondam à identidade da sua marca, conseguindo gerar texto específico para a tarefa de forma eficiente. Plataformas como o Ultralytics HUB facilitam a gestão destes modelos adaptados.
  2. Análise de sentimento específica do domínio: Um prestador de cuidados de saúde precisa de analisar o feedback dos pacientes para detetar nuances de sentimento específicas relacionadas com os cuidados médicos. Um modelo geral de análise de sentimentos pode não ter a compreensão específica do domínio. Usando o ajuste de prompts, eles podem adaptar um modelo de linguagem pré-treinado, aprendendo prompts otimizados em dados de feedback relacionados à saúde. Isto permite que o modelo compreenda e classifique melhor o sentimento dentro desse contexto específico sem voltar a treinar todo o modelo de base, melhorando potencialmente a precisão.

Prompt Tuning vs. Conceitos relacionados

É importante distinguir o Prompt Tuning de técnicas semelhantes:

  • Afinação: O ajuste fino envolve normalmente a atualização de todos ou de uma parte significativa dos pesos do modelo pré-treinado num conjunto de dados específico da tarefa. Isto é computacionalmente dispendioso e requer o armazenamento de uma cópia completa dos pesos adaptados para cada tarefa. O ajuste de prompt atualiza apenas um pequeno conjunto de parâmetros de prompt, mantendo os pesos originais do modelo congelados, tornando-o muito mais eficiente em termos de recursos. Podes explorar as dicas de formação de modelos para obteres orientações gerais aplicáveis ao ajuste fino.
  • Engenharia de Prompt: A engenharia de prompts envolve a conceção manual de prompts de texto discreto para obter o comportamento desejado de um LLM, muitas vezes através de tentativa e erro ou técnicas como a cadeia de pensamento. Por outro lado, o ajuste de prompts aprende automaticamente a incorporação de prompts contínuos através de otimização.
  • Enriquecimento de mensagens: O enriquecimento de avisos centra-se na adição manual de contexto, instruções ou exemplos a um aviso para melhorar a clareza e orientar a IA. É uma técnica de melhoramento manual, enquanto a afinação de mensagens é um processo de aprendizagem automatizado para parâmetros de mensagens.
  • LoRA (Low-Rank Adaptation): LoRA é outro método PEFT que injeta matrizes treináveis de baixa classificação nas camadas do modelo, adaptando os pesos indiretamente, mas de forma mais extensa do que o ajuste rápido, que normalmente modifica apenas a camada de entrada ou os mecanismos de atenção por meio de comandos suaves. Ambos são mais eficientes do que o ajuste fino completo. Podes saber mais sobre os métodos PEFT em recursos como a documentação da bibliotecaHugging Face PEFT.

Em resumo, o Prompt Tuning oferece um método potente e eficiente para especializar grandes modelos pré-treinados, como o Ultralytics YOLO (quando aplicado em contextos multimodais relevantes) ou LLMs para diversas tarefas, equilibrando o desempenho com a viabilidade computacional. Representa um avanço fundamental para tornar os poderosos modelos de IA mais adaptáveis e acessíveis.

Lê tudo