Descobre como os mecanismos de atenção revolucionam a IA, melhorando as tarefas de PNL e de visão por computador, como a tradução, a deteção de objectos e muito mais!
Um mecanismo de atenção é uma técnica utilizada na Inteligência Artificial (IA) e na Aprendizagem Automática (AM) que imita a atenção cognitiva humana. Permite que um modelo se concentre seletivamente nas partes mais relevantes dos dados de entrada - como palavras específicas numa frase ou regiões numa imagem - ao fazer previsões ou gerar resultados. Em vez de tratar todas as partes de entrada da mesma forma, esta concentração selectiva melhora o desempenho, especialmente quando se trata de grandes quantidades de informação, como longas sequências de texto ou imagens de alta resolução. Isto permite que os modelos lidem com tarefas complexas de forma mais eficaz e foi uma inovação fundamental popularizada pelo artigo seminal"Attention Is All You Need", que introduziu a arquitetura Transformer.
Em vez de processar uniformemente toda uma sequência ou imagem de entrada, um mecanismo de atenção atribui "pontuações de atenção" ou pesos a diferentes segmentos de entrada. Estas pontuações indicam a importância ou relevância de cada segmento relativamente à tarefa específica em causa (por exemplo, prever a palavra seguinte numa frase ou classificar um objeto numa imagem). Os segmentos com pontuações mais altas recebem maior atenção do modelo durante a computação. Essa alocação dinâmica permite que o modelo dê prioridade a informações cruciais em cada etapa, levando a resultados mais precisos e contextualmente conscientes. Isto contrasta com arquitecturas mais antigas, como as Redes Neuronais Recorrentes (RNNs) padrão, que processam dados sequencialmente e podem ter dificuldade em recordar informações de partes anteriores de sequências longas devido a problemas como o desaparecimento de gradientes.
Os mecanismos de atenção tornaram-se componentes fundamentais em muitos modelos de ponta, com um impacto significativo em domínios como o Processamento de Linguagem Natural (PLN) e a Visão por Computador (VC). Ajudam a ultrapassar as limitações dos modelos tradicionais no tratamento de dependências de longo alcance e na captação de relações intrincadas dentro dos dados. Os principais tipos e conceitos relacionados incluem:
Modelos como o BERT e o GPT baseiam-se fortemente na auto-atenção para tarefas de PNL, enquanto os Transformadores de Visão (ViTs) adaptam este conceito para tarefas de análise de imagens, como a classificação de imagens.
É útil distinguir os mecanismos de atenção de outros componentes comuns das redes neuronais:
Os mecanismos de atenção fazem parte integrante de numerosas aplicações modernas de IA:
Plataformas como o Ultralytics HUB permitem que os utilizadores treinem, validem e implementem modelos avançados, incluindo os que incorporam mecanismos de atenção, muitas vezes aproveitando pesos de modelos pré-treinados disponíveis em plataformas como Hugging Face.