Descobre o BERT, o revolucionário modelo de PNL da Google. Aprende como a sua compreensão bidirecional do contexto transforma as tarefas de IA, como a pesquisa e os chatbots.
O BERT, que significa Bidirectional Encoder Representations from Transformers, é uma técnica de referência para o pré-treino de Processamento de Linguagem Natural (PNL) desenvolvida por investigadores da Google AI Language. Apresentado em 2018 através do influente artigo"BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding", o BERT revolucionou a forma como as máquinas compreendem a linguagem humana. Foi uma das primeiras representações linguísticas profundamente bidirecionais e não supervisionadas, pré-treinadas usando apenas um corpus de texto simples como a Wikipédia. O BERT aproveita a poderosa arquitetura do Transformer, especificamente a parte do codificador, para processar palavras em relação a todas as outras palavras de uma frase simultaneamente, em vez de sequencialmente. Isto permite uma compreensão mais profunda do contexto em comparação com os modelos unidireccionais anteriores.
Ao contrário dos modelos anteriores que processavam o texto numa única direção (da esquerda para a direita ou da direita para a esquerda), o BERT processa toda a sequência de palavras de uma só vez, utilizando o seu codificador Transformer e o mecanismo de auto-atenção. Esta abordagem bidirecional permite-lhe compreender o contexto de uma palavra com base nas palavras que a rodeiam, tanto as que a precedem como as que a seguem. Por exemplo, o BERT pode diferenciar o significado de "banco" em "Preciso de ir ao banco levantar dinheiro" e "A margem do rio estava lamacenta", considerando o contexto completo da frase.
O BERT aprende estas relações linguísticas complexas durante uma fase de pré-treino em grandes quantidades de dados de texto. Isto envolve duas tarefas principais não supervisionadas:
O resultado deste pré-treinamento é um modelo com uma rica incorporação de linguagem que capta a sintaxe e a semântica. Este modelo BERT pré-treinado pode então ser rapidamente adaptado ou"afinado" para várias tarefas específicas de PNL a jusante, utilizando conjuntos de dados mais pequenos e específicos para cada tarefa. Este processo de aproveitamento do conhecimento pré-treinado é uma forma de aprendizagem por transferência.
A capacidade do BERT para compreender as nuances da linguagem conduziu a melhorias significativas em várias aplicações de Inteligência Artificial (IA) do mundo real:
Embora o BERT seja utilizado principalmente na PNL, a arquitetura Transformer que popularizou também inspirou avanços na Visão por Computador (CV), como os Transformadores de Visão (ViT) utilizados em modelos como RT-DETR. Plataformas como o Ultralytics HUB facilitam a formação e a implementação de vários modelos de IA, incluindo os construídos com base nos princípios do Transformer.