Glossário

Sintonização imediata

Optimiza modelos de linguagem de grande dimensão de forma eficiente com o Prompt Tuning - reduz os custos, poupa recursos e consegue uma adaptabilidade específica da tarefa sem esforço.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

O Prompt Tuning é uma abordagem simplificada para adaptar modelos de linguagem pré-treinados a tarefas ou conjuntos de dados específicos. Em vez de atualizar todos os parâmetros de um modelo de grandes dimensões, a afinação de prompts centra-se na otimização do prompt de entrada, mantendo os pesos do modelo congelados. Este método é particularmente eficiente e de fácil utilização, o que o torna acessível a várias aplicações sem necessidade de grande capacidade computacional.

Conceito e relevância

Na sua essência, a afinação de mensagens aproveita o conhecimento já incorporado num modelo pré-treinado, como um modelo de linguagem grande (LLM) como o GPT-3 ou o GPT-4. A ideia é que, ao elaborar cuidadosamente o prompt de entrada, podemos orientar o modelo para realizar uma tarefa desejada de forma eficaz. Isto é conseguido adicionando parâmetros treináveis, muitas vezes um pequeno conjunto de 'soft prompts' ou 'prefixos', à entrada. Estes parâmetros são então optimizados para orientar a saída do modelo, "afinando" efetivamente o comportamento do modelo através do próprio comando.

A importância da afinação rápida está a crescer rapidamente devido a várias vantagens:

  • Eficiência dos parâmetros: Reduz drasticamente o número de parâmetros treináveis em comparação com o ajuste fino tradicional. Isto é especialmente crucial quando se trabalha com modelos massivos em que o ajuste fino completo é computacionalmente proibitivo.
  • Custo computacional reduzido: Treinar apenas um pequeno conjunto de parâmetros de prompt requer significativamente menos GPU memória e tempo de computação. Isto torna mais acessível e mais rápida a adaptação de modelos para casos de utilização específicos.
  • Evita o esquecimento catastrófico: Ao manter os pesos originais do modelo congelados, a afinação rápida ajuda a evitar o esquecimento catastrófico, um fenómeno em que a afinação fina pode degradar o desempenho do modelo em tarefas previamente aprendidas.
  • Versatilidade de tarefas: A afinação de prompts pode ser aplicada a uma vasta gama de tarefas de PNL, e até se estende a outros domínios como a visão computacional, tornando-a uma técnica versátil na IA moderna.

Aplicações do ajuste rápido

O Prompt Tuning está a ser utilizado em várias aplicações, particularmente quando a adaptação de modelos grandes e pré-treinados é fundamental. Aqui estão alguns exemplos concretos:

  1. Geração de texto e criação de conteúdo: Na geração de texto, o ajuste de prompts pode ser usado para refinar o estilo, o tom ou o tópico do texto gerado. Por exemplo, se quiseres gerar um texto de marketing utilizando um modelo pré-treinado, podes afinar os prompts especificamente para linguagem publicitária, voz da marca ou descrições de produtos. Isto permite a geração de conteúdos altamente personalizados sem ter de voltar a treinar todo o modelo. Ferramentas como a LangChain podem ser utilizadas para criar cadeias de solicitações sofisticadas, aumentando ainda mais o controlo sobre o conteúdo gerado.

  2. Análise de sentimentos: Para tarefas como a análise de sentimentos, o ajuste de prompts permite a adaptação de um modelo de linguagem de uso geral a domínios específicos, como a análise de comentários de clientes sobre um determinado produto ou marca. Ao ajustar os prompts com exemplos relevantes para o domínio alvo, o modelo pode tornar-se mais preciso na compreensão de nuances e na expressão de sentimentos dentro desse contexto específico.

Afinação imediata vs. afinação fina

Embora tanto a afinação rápida como a afinação fina tenham como objetivo adaptar modelos pré-treinados, diferem significativamente na sua abordagem. A afinação fina envolve a atualização de todos ou da maioria dos parâmetros do modelo pré-treinado utilizando um novo conjunto de dados relevantes para a tarefa-alvo. Este processo é computacionalmente intensivo, mas pode conduzir a uma elevada precisão, especialmente quando está disponível um grande conjunto de dados específicos da tarefa.

Em contraste, a sintonização de avisos mantém fixos os pesos do modelo pré-treinado e optimiza apenas um pequeno aviso específico da tarefa. É menos exigente em termos computacionais e mais eficiente em termos de parâmetros. O ajuste imediato é particularmente vantajoso quando os dados são limitados ou quando é necessária uma adaptação rápida. Também é benéfico quando queres preservar as capacidades gerais do modelo pré-treinado enquanto o especializas para uma tarefa específica.

Em resumo, o Prompt Tuning oferece uma forma poderosa, eficiente e acessível de aproveitar as capacidades de grandes modelos pré-treinados para aplicações específicas, representando um avanço significativo no campo da IA.

Lê tudo