Descobre o BERT, o revolucionário modelo de PNL da Google. Aprende como a sua compreensão bidirecional do contexto transforma as tarefas de IA, como a pesquisa e os chatbots.
BERT, que significa Bidirectional Encoder Representations from Transformers, é uma técnica de referência para o pré-treino de Processamento de Linguagem Natural (PNL) desenvolvida por investigadores da Google AI Language. Introduzido em 2018, o BERT revolucionou a forma como as máquinas compreendem a linguagem humana ao ser a primeira representação de linguagem profundamente bidirecional e não supervisionada, pré-treinada utilizando apenas um corpus de texto simples. Aproveita a poderosa arquitetura do Transformer, especificamente a parte do codificador, para processar palavras em relação a todas as outras palavras numa frase, em vez de sequencialmente.
Ao contrário dos modelos anteriores que processavam o texto numa única direção (da esquerda para a direita ou da direita para a esquerda), o BERT processa toda a sequência de palavras de uma só vez. Esta abordagem bidirecional permite-lhe compreender o contexto de uma palavra com base nas palavras que a rodeiam, tanto as que a precedem como as que a seguem. Imagina tentar compreender o significado da palavra "banco" em "Fui ao banco depositar dinheiro" versus "Sentei-me na margem do rio". A bidireccionalidade do BERT ajuda-o a diferenciar estes significados de forma eficaz. Aprende estas relações ao ser pré-treinado em grandes quantidades de dados de texto, como a Wikipédia, utilizando técnicas como Masked Language Modeling (previsão de palavras ocultas) e Next Sentence Prediction. O modelo pré-treinado resultante, que contém uma rica incorporação de linguagem, pode então ser rapidamente adaptado ou"ajustado" para tarefas específicas de PNL a jusante com conjuntos de dados mais pequenos e específicos da tarefa.
A capacidade do BERT para compreender as nuances da linguagem conduziu a melhorias significativas em várias aplicações:
Outras aplicações incluem a melhoria das ferramentas de resumo de texto e a melhoria dos sistemas de tradução automática.
O BERT centra-se principalmente na codificação de texto para tarefas de compreensão. A sua natureza bidirecional contrasta com os modelos unidireccionais anteriores, como as Redes Neuronais Recorrentes (RNN) básicas. Embora também se baseie na arquitetura Transformer, o BERT difere de modelos como o GPT (Generative Pre-trained Transformer), que são normalmente optimizados para gerar texto em vez de apenas o codificar. A própria arquitetura Transformer também foi adaptada para tarefas de visão computacional, como se pode ver em modelos como o Vision Transformer (ViT), demonstrando a flexibilidade da arquitetura para além da PNL. Muitos modelos BERT pré-treinados estão prontamente disponíveis através de plataformas como Hugging Face e podem ser integrados em fluxos de trabalho utilizando ferramentas como o Ultralytics HUB.