Glossário

Modelos de sequência para sequência

Descobre os modelos Seq2Seq: poderosas ferramentas de IA para tradução, resumo e chatbots. Aprende sobre codificadores, atenção e transformadores em PNL!

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

Os modelos Sequence-to-Sequence (Seq2Seq) são uma classe de arquitecturas de redes neuronais concebidas para tarefas que envolvem a transformação de uma sequência de entrada numa sequência de saída. Estes modelos são amplamente utilizados no processamento de linguagem natural (PNL) e noutros domínios em que predominam os dados sequenciais. Ao empregar uma arquitetura codificador-descodificador, os modelos Seq2Seq são excelentes na geração de resultados de comprimento variável, o que os torna ideais para aplicações como a tradução, o resumo e os chatbots.

Componentes principais

Arquitetura codificador-descodificador

A base dos modelos Seq2Seq reside na arquitetura codificador-descodificador:

  • Codificador: O codificador processa a sequência de entrada e codifica-a numa representação de comprimento fixo, frequentemente designada por vetor de contexto. Este passo capta a informação essencial da sequência de entrada.
  • Descodificador: O descodificador gera a sequência de saída com base no vetor de contexto fornecido pelo codificador. Prediz cada token da sequência de saída, um a um, considerando os tokens anteriores.

Mecanismo de atenção

Uma melhoria significativa dos modelos Seq2Seq é o mecanismo de atenção, que permite que o descodificador se concentre em partes específicas da sequência de entrada durante a geração. Isto melhora o desempenho em tarefas que envolvem sequências de entrada longas ou complexas. Saiba mais sobre o mecanismo de atenção.

Modelos de transformadores

Os modelos Seq2Seq modernos utilizam frequentemente a arquitetura Transformer, que substitui as redes neurais recorrentes (RNN) tradicionais por mecanismos de auto-atenção para processar sequências de forma mais eficiente. Explora a arquitetura Transformer para obteres mais informações.

Aplicações

Tradução automática

Os modelos Seq2Seq são a espinha dorsal dos sistemas de tradução automática, como a tradução entre línguas. Por exemplo, o Google Translate utiliza técnicas Seq2Seq para converter texto de um idioma para outro. Explora a tradução automática para mais informações.

Sumarização de texto

Os modelos Seq2Seq permitem a sumarização automática de documentos longos em resumos concisos. Ferramentas como os sistemas de sumarização abstractiva baseiam-se em arquitecturas Seq2Seq para gerar resumos semelhantes aos humanos. Lê mais sobre sumarização de texto.

Chatbots

Os chatbots alimentados por IA utilizam modelos Seq2Seq para gerar respostas contextualizadas em interfaces de conversação. Por exemplo, os bots de apoio ao cliente utilizam estes modelos para ajudar os utilizadores de forma eficaz.

Exemplos do mundo real

Tradução automática neural

GoogleO sistema de Tradução Automática Neural (GNMT) da Neural utiliza modelos Seq2Seq com mecanismos de atenção para fornecer traduções de alta qualidade em várias línguas.

Sistemas de conversão de texto em fala

Os modelos Seq2Seq são utilizados em sistemas de conversão de texto em fala, como o Tacotron da Google, que converte a entrada de texto em fala com som natural.

Distinção de conceitos relacionados

Redes Neuronais Recorrentes (RNNs)

Embora as RNNs estejam no centro dos modelos tradicionais do Seq2Seq, arquiteturas modernas como os Transformers substituíram amplamente as RNNs devido à sua eficiência e escalabilidade. Saiba mais sobre Redes Neurais Recorrentes para uma comparação detalhada.

Transformadores generativos pré-treinados (GPT)

Ao contrário dos modelos Seq2Seq, os modelos GPT são concebidos principalmente para tarefas generativas e utilizam atenção unidirecional. Explora o GPT para compreender as suas capacidades únicas.

Recursos relacionados

  • Lê sobre o Processamento de Linguagem Natural para veres como os modelos Seq2Seq se enquadram no panorama mais amplo da PNL.
  • Explora técnicas de afinação para adaptar os modelos Seq2Seq a tarefas específicas.
  • Aprende sobre a Tokenização, uma etapa crucial de pré-processamento para tarefas Seq2Seq.

Os modelos Seq2Seq continuam a evoluir com os avanços em arquitecturas como Transformers e mecanismos de atenção, permitindo aplicações de ponta em todas as indústrias. Desde revolucionar a tradução de idiomas até alimentar chatbots inteligentes, os modelos Seq2Seq são fundamentais para os sistemas de IA modernos. Descobre como ferramentas como o Ultralytics HUB podem ajudar a simplificar o desenvolvimento de IA para tarefas de dados sequenciais.

Lê tudo