Glossário

BERT (Bidirectional Encoder Representations from Transformers)

Descubra o BERT, o revolucionário modelo de PNL da Google. Saiba como a sua compreensão bidirecional do contexto transforma as tarefas de IA, como a pesquisa e os chatbots.

O BERT, que significa Bidirectional Encoder Representations from Transformers, é um modelo linguístico revolucionário desenvolvido pela Google. Apresentado num artigo de investigação de 2018, o BERT transformou o campo do Processamento de Linguagem Natural (PNL) ao ser o primeiro modelo a compreender o contexto de uma palavra com base no que a rodeia, tanto à esquerda como à direita (bidireccionalmente). Esta capacidade de compreender o contexto permite ao BERT captar as nuances da linguagem humana de forma muito mais eficaz do que os modelos anteriores, que normalmente processavam o texto numa única direção. É um tipo de Modelo de Linguagem Ampla (LLM) e é considerado uma tecnologia fundamental para muitas aplicações modernas de PNL.

Como funciona o Bert

A principal inovação do BERT reside na sua abordagem de formação bidirecional, que se baseia na arquitetura do Transformer. Ao contrário dos modelos anteriores que lêem o texto sequencialmente, o mecanismo de atenção do BERT permite-lhe considerar a frase inteira de uma só vez. Para conseguir esta compreensão bidirecional durante o pré-treino, o BERT utiliza duas estratégias principais:

  1. Modelo de linguagem mascarada (MLM): Nesta tarefa, algumas palavras numa frase são ocultadas aleatoriamente, ou "mascaradas", e a tarefa do modelo é prever as palavras mascaradas originais com base nas palavras não mascaradas circundantes. Isto obriga o modelo a aprender relações contextuais profundas em ambas as direcções.
  2. Previsão da frase seguinte (NSP): O modelo recebe duas frases e tem de prever se a segunda frase é a que se segue logicamente à primeira no texto original. Isto ajuda o BERT a compreender as relações entre frases, o que é crucial para tarefas como a resposta a perguntas e a análise de parágrafos.

Após esta pré-treino extensivo num corpus massivo de texto, o BERT pode ser adaptado a tarefas específicas através de um processo designado por fine-tuning. Este processo envolve o treino adicional do modelo num conjunto de dados mais pequeno e específico da tarefa, tornando-o uma ferramenta altamente versátil para programadores e investigadores. Muitos modelos BERT pré-treinados estão acessíveis através de plataformas como a Hugging Face.

Aplicações no mundo real

A capacidade do BERT para compreender as nuances da linguagem conduziu a melhorias significativas em várias aplicações de Inteligência Artificial (IA) do mundo real:

  • Motores de pesquisa: A Pesquisa Google incorporou o BERT para compreender melhor as consultas dos utilizadores, especialmente as conversacionais ou complexas, conduzindo a resultados de pesquisa mais relevantes. Por exemplo, o BERT ajuda a compreender a intenção por detrás de pesquisas como "pode arranjar medicamentos para alguém da farmácia" ao compreender a importância de preposições como "para" e "para".
  • Chatbots e assistentes virtuais: O BERT melhora a capacidade dos chatbots e assistentes virtuais para compreenderem os pedidos dos utilizadores com maior precisão, manterem o contexto nas conversas e fornecerem respostas mais úteis no serviço ao cliente, sistemas de reservas e recuperação de informações.
  • Análise de sentimento: As empresas utilizam modelos baseados no BERT para analisar as opiniões dos clientes, os comentários nas redes sociais e as respostas a inquéritos para avaliar a opinião pública e o feedback dos produtos com maior precisão.
  • Sumarização de texto e resposta a perguntas: O BERT pode ser aperfeiçoado para criar sistemas que resumam automaticamente documentos longos ou respondam a perguntas com base numa determinada passagem de texto. Isto é avaliado em conjuntos de dados como o Stanford Question Answering Dataset (SQuAD).

Bert vs. Outros modelos

É importante distinguir o BERT de outros modelos de IA:

Plataformas como o Ultralytics HUB facilitam a formação e a implementação de vários modelos de IA, incluindo os modelos baseados nos princípios do Transformer. O desenvolvimento do BERT e de modelos semelhantes envolve frequentemente estruturas de aprendizagem automática padrão, como o PyTorch e o TensorFlow.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência