Glossário

Reformador

Descobre o modelo Reformer: uma inovadora arquitetura de transformador optimizada para sequências longas com atenção LSH e camadas reversíveis.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

O Reformer é uma variante eficiente da arquitetura padrão do Transformer, especificamente concebida para lidar com sequências muito longas, que colocam desafios computacionais e de memória significativos aos Transformers tradicionais. Introduzido por investigadores da Google Research, o Reformer incorpora várias inovações para reduzir drasticamente a utilização de memória e o custo computacional, tornando viável o processamento de sequências com centenas de milhares ou mesmo milhões de elementos, muito para além dos limites típicos dos Transformers padrão. Esta eficiência abre possibilidades de aplicação de modelos do tipo Transformer a tarefas que envolvam contextos extensos, como o processamento de livros inteiros, imagens de alta resolução tratadas como sequências de pixéis ou peças musicais longas.

Conceitos fundamentais do Reformer

O transformador atinge a sua eficiência principalmente através de duas técnicas fundamentais:

  1. Atenção ao Locality-Sensitive Hashing (LSH): Os transformadores padrão utilizam um mecanismo de auto-atenção total, em que cada elemento (token) atende a todos os outros elementos. O custo computacional deste mecanismo aumenta quadraticamente com o comprimento da sequência. O Reformer substitui-o pela atenção LSH, uma técnica de aproximação baseada no Locality-Sensitive Hashing. O LSH agrupa tokens semelhantes, e a atenção é calculada apenas dentro desses grupos ou em grupos próximos, reduzindo significativamente a complexidade computacional de quadrática para quase linear.
  2. Camadas residuais reversíveis: Os transformadores empilham várias camadas e, durante o treino, as activações de cada camada são normalmente armazenadas na memória para retropropagação. Isto consome muita memória, especialmente com muitas camadas ou grandes activações. O Reformer usa camadas reversíveis, que permitem que as ativações de qualquer camada sejam recalculadas durante a retropropagação usando apenas as ativações da camada seguinte. Isso elimina a necessidade de armazenar ativações para a maioria das camadas, reduzindo drasticamente o uso de memória durante o treinamento.

Transformador vs. Transformador padrão

Embora ambos se baseiem no mecanismo de atenção, o Reformer difere significativamente:

  • Atenção: Os transformadores padrão utilizam uma atenção completa e computacionalmente dispendiosa. O Reformer utiliza uma atenção aproximada eficiente baseada em LSH.
  • Memória: Os transformadores padrão requerem uma grande quantidade de memória para armazenar as activações. O Reformer usa camadas reversíveis para minimizar os requisitos de memória durante o treinamento do modelo.
  • Comprimento da sequência: Os transformadores padrão são normalmente limitados a sequências de alguns milhares de tokens. O Reformer pode lidar com sequências com ordens de magnitude maiores.
  • Caso de utilização: Os transformadores padrão são excelentes em tarefas com sequências moderadamente longas. O Reformer é especificamente optimizado para tarefas que envolvem sequências extremamente longas, em que os Transformers padrão não são viáveis. Podes explorar vários modelos baseados em Transformers em plataformas como Hugging Face.

Aplicações

A capacidade do Reformer para processar sequências longas torna-o adequado para várias tarefas de Inteligência Artificial (IA):

  • Processamento de documentos longos: Tarefas como resumir livros inteiros, responder a perguntas baseadas em documentos jurídicos ou técnicos longos ou efetuar análises de sentimentos em textos longos tornam-se mais fáceis.
  • Genómica: Analisa sequências longas de ADN ou de proteínas.
  • Análise de séries temporais: Modelação de dados de séries temporais muito longas, tais como tendências detalhadas do mercado financeiro ou padrões climáticos a longo prazo.
  • Modelação generativa: Gera peças longas e coerentes de texto, música ou mesmo imagens de alta resolução, tratando os pixéis como uma sequência longa( geração detexto para imagem ).

Enquanto modelos como o Ultralytics YOLO se concentram na deteção eficiente de objectos em imagens, utilizando frequentemente Redes Neuronais Convolucionais (CNN) ou arquitecturas híbridas como RT-DETRos princípios de eficiência computacional e de memória explorados no Reformer são relevantes em todo o campo da aprendizagem profunda (DL). Compreender esses avanços ajuda a impulsionar a inovação para modelos de IA mais capazes e acessíveis, um objetivo partilhado por plataformas como o Ultralytics HUB, que visa simplificar o desenvolvimento e a implementação da IA. Para mais informações, consulta o artigo de investigação original do Reformer. A comparação de eficiências de modelos, como YOLO11 vs YOLOv10, destaca o esforço contínuo para equilibrar o desempenho e a utilização de recursos.

Lê tudo