Sintonização imediata
Optimize modelos de linguagem de grande dimensão de forma eficiente com o Prompt Tuning - reduza custos, poupe recursos e obtenha adaptabilidade específica de tarefas sem esforço.
O Prompt Tuning é uma técnica poderosa e eficiente para adaptar grandes modelos pré-treinados, como os Large Language Models (LLMs), a novas tarefas sem alterar os pesos do modelo original. É uma forma de Parameter-Efficient Fine-Tuning (PEFT) que mantém congelados os milhares de milhões de parâmetros do modelo de base e, em vez disso, aprende um pequeno conjunto de "soft prompts" específicos da tarefa. Estes "soft prompts" não são textos legíveis por humanos, mas sim " embeddings " aprendíveis anexados à entrada, que guiam o modelo congelado para produzir o resultado desejado para uma tarefa específica a jusante. Esta abordagem reduz drasticamente o custo computacional e o armazenamento necessários para a adaptação específica da tarefa, tal como documentado no documento de investigação original da Google AI.
A ideia central é treinar apenas alguns milhares ou milhões de parâmetros extra (o soft prompt) por tarefa, em vez de voltar a treinar ou afinar todo o modelo, que pode ter milhares de milhões de parâmetros. Isto torna viável a criação de muitos "módulos de comando" especializados para um único modelo pré-treinado, cada um adaptado a uma tarefa diferente, sem criar cópias completas do modelo. Este método também ajuda a mitigar o esquecimento catastrófico, em que um modelo esquece informações aprendidas anteriormente quando é treinado para uma nova tarefa.
Aplicações no mundo real
O Prompt Tuning permite a personalização de modelos de fundação poderosos para uma ampla gama de aplicações especializadas.
- Análise de sentimento personalizada: Uma empresa quer analisar o feedback dos clientes para os seus produtos específicos. Um modelo de análise de sentimentos de uso geral pode não compreender o jargão específico do sector. Utilizando a afinação de prompts, a empresa pode adaptar um modelo de grande dimensão como o BERT, treinando um pequeno conjunto de prompts suaves nos seus próprios comentários de clientes etiquetados. O modelo resultante pode classificar com exatidão o feedback sem a necessidade de um treino completo do modelo, fornecendo informações mais detalhadas.
- Chatbots médicos especializados: Uma organização de cuidados de saúde pretende criar um chatbot que responda a perguntas dos pacientes sobre condições médicas específicas. O treinamento completo de um grande LLM médico consome muitos recursos. Em vez disso, eles podem usar o ajuste de prompt em um modelo pré-treinado como o GPT-4. Ao treinar um prompt específico de uma tarefa num conjunto de dados médicos selecionados, o chatbot aprende a fornecer respostas precisas e contextualizadas para esse domínio, tornando a IA poderosa nos cuidados de saúde mais acessível.
Prompt Tuning vs. Conceitos relacionados
É importante distinguir o Prompt Tuning de técnicas semelhantes:
- Afinação: Este método actualiza uma grande parte, ou mesmo a totalidade, dos parâmetros de um modelo pré-treinado num novo conjunto de dados. É mais intensivo do ponto de vista computacional, mas pode, por vezes, alcançar um desempenho superior adaptando profundamente as representações internas do modelo. As dicas de formação de modelos abrangem frequentemente aspectos de afinação.
- Engenharia rápida: Trata-se de conceber manualmente prompts eficazes baseados em texto (hard prompts) para orientar um modelo pré-treinado congelado. Envolve a elaboração de instruções e exemplos dentro do próprio texto de entrada e não envolve a formação de quaisquer parâmetros novos. Técnicas como a sugestão de cadeia de pensamento inserem-se nesta categoria.
- Enriquecimento de prompts: Esta técnica melhora automaticamente o pedido de um utilizador, acrescentando-lhe contexto, por exemplo, utilizando a Geração Aumentada por Recuperação (RAG), antes de ser enviado para o modelo de IA. Ao contrário da afinação do pedido, esta técnica aperfeiçoa a consulta de entrada sem treinar novos parâmetros.
- LoRA (Adaptação de baixa classificação): Outra técnica PEFT que injecta pequenas matrizes de baixa classificação treináveis nas camadas existentes (como o mecanismo de atenção) do modelo pré-treinado. Actualiza diferentes partes do modelo em comparação com o Prompt Tuning, que se concentra apenas nos embeddings de entrada. Ambos são frequentemente encontrados em bibliotecas como a biblioteca Hugging Face PEFT.
Embora o Prompt Tuning seja predominantemente aplicado a LLMs no Processamento de Linguagem Natural (PNL), o princípio fundamental da adaptação eficiente é relevante em toda a Inteligência Artificial (IA). Na Visão por Computador (CV), embora o ajuste fino completo de modelos como o Ultralytics YOLO em conjuntos de dados personalizados seja comum para tarefas como a deteção de objectos, os métodos PEFT estão a ganhar força, especialmente para grandes modelos multimodais. Plataformas como o Ultralytics HUB simplificam o processo de treinamento e implantação de vários modelos de IA, potencialmente incorporando essas técnicas eficientes no futuro.