Glossário

BERT (Bidirectional Encoder Representations from Transformers)

Descobre o BERT, o revolucionário modelo de PNL da Google. Aprende como a sua compreensão bidirecional do contexto transforma as tarefas de IA, como a pesquisa e os chatbots.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

BERT, que significa Bidirectional Encoder Representations from Transformers, é uma técnica de referência para o pré-treino de Processamento de Linguagem Natural (PNL) desenvolvida por investigadores da Google AI Language. Introduzido em 2018, o BERT revolucionou a forma como as máquinas compreendem a linguagem humana ao ser a primeira representação de linguagem profundamente bidirecional e não supervisionada, pré-treinada utilizando apenas um corpus de texto simples. Aproveita a poderosa arquitetura do Transformer, especificamente a parte do codificador, para processar palavras em relação a todas as outras palavras numa frase, em vez de sequencialmente.

Como funciona o Bert

Ao contrário dos modelos anteriores que processavam o texto numa única direção (da esquerda para a direita ou da direita para a esquerda), o BERT processa toda a sequência de palavras de uma só vez. Esta abordagem bidirecional permite-lhe compreender o contexto de uma palavra com base nas palavras que a rodeiam, tanto as que a precedem como as que a seguem. Imagina tentar compreender o significado da palavra "banco" em "Fui ao banco depositar dinheiro" versus "Sentei-me na margem do rio". A bidireccionalidade do BERT ajuda-o a diferenciar estes significados de forma eficaz. Aprende estas relações ao ser pré-treinado em grandes quantidades de dados de texto, como a Wikipédia, utilizando técnicas como Masked Language Modeling (previsão de palavras ocultas) e Next Sentence Prediction. O modelo pré-treinado resultante, que contém uma rica incorporação de linguagem, pode então ser rapidamente adaptado ou"ajustado" para tarefas específicas de PNL a jusante com conjuntos de dados mais pequenos e específicos da tarefa.

Principais caraterísticas e vantagens

  • Contexto bidirecional: Compreende o significado das palavras com base no contexto completo da frase, melhorando a precisão em tarefas que exigem uma compreensão profunda da língua.
  • Pré-treino e ajuste fino: Oferece modelos pré-treinados poderosos que captam a compreensão geral da linguagem, que podem ser facilmente adaptados a aplicações específicas, como a análise de sentimentos ou a resposta a perguntas. Isto reduz significativamente a necessidade de grandes conjuntos de dados rotulados para cada tarefa.
  • Desempenho de última geração: Obteve resultados inovadores numa vasta gama de benchmarks de NLP aquando do seu lançamento, estabelecendo um novo padrão para modelos de linguagem. Podes explorar a investigação original no artigo do BERT ArXiv.
  • Versatilidade: Pode ser aplicado a várias tarefas de PNL, incluindo classificação de texto, reconhecimento de entidades nomeadas e inferência de linguagem natural.

Aplicações no mundo real

A capacidade do BERT para compreender as nuances da linguagem conduziu a melhorias significativas em várias aplicações:

  1. Motores de pesquisa: Google integrou o BERT no seu motor de pesquisa para compreender melhor as consultas dos utilizadores. Conforme detalhado na publicação do Blogue de IAGoogle sobre o BERT na Pesquisa, isto ajuda a fornecer resultados de pesquisa mais relevantes ao compreender o contexto e a intenção por detrás de consultas complexas ou de conversação.
  2. IA conversacional: o BERT melhora os chatbots e os assistentes virtuais, permitindo-lhes compreender melhor os pedidos dos utilizadores, manter o contexto durante as conversas e fornecer respostas mais precisas e úteis. Isto conduz a interações homem-computador mais naturais e eficazes.

Outras aplicações incluem a melhoria das ferramentas de resumo de texto e a melhoria dos sistemas de tradução automática.

Bert Vs Modelos semelhantes

O BERT centra-se principalmente na codificação de texto para tarefas de compreensão. A sua natureza bidirecional contrasta com os modelos unidireccionais anteriores, como as Redes Neuronais Recorrentes (RNN) básicas. Embora também se baseie na arquitetura Transformer, o BERT difere de modelos como o GPT (Generative Pre-trained Transformer), que são normalmente optimizados para gerar texto em vez de apenas o codificar. A própria arquitetura Transformer também foi adaptada para tarefas de visão computacional, como se pode ver em modelos como o Vision Transformer (ViT), demonstrando a flexibilidade da arquitetura para além da PNL. Muitos modelos BERT pré-treinados estão prontamente disponíveis através de plataformas como Hugging Face e podem ser integrados em fluxos de trabalho utilizando ferramentas como o Ultralytics HUB.

Lê tudo