Glossário

Rede Neural Recorrente (RNN)

Descobre o poder das Redes Neuronais Recorrentes (RNNs) para dados sequenciais, desde a PNL à análise de séries temporais. Aprende hoje os principais conceitos e aplicações!

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

As Redes Neurais Recorrentes (RNNs) são uma classe de Redes Neurais (NNs ) projetadas especificamente para processar dados seqüenciais, onde a ordem das informações é importante. Ao contrário das redes feedforward padrão, que processam entradas de forma independente, as RNNs têm loops internos, permitindo que as informações de etapas anteriores da seqüência persistam e influenciem as etapas subseqüentes. Esta "memória" torna-as adequadas para tarefas que envolvem sequências como texto, discurso ou dados de séries temporais nos domínios da Inteligência Artificial (IA) e da Aprendizagem Automática (AM).

Como funcionam as redes neurais recorrentes

A idéia central de uma RNN é o estado oculto, que funciona como a memória da rede. Em cada etapa da seqüência, a RNN pega a entrada atual e o estado oculto da etapa anterior para produzir uma saída e atualizar seu estado oculto. Esse estado oculto atualizado é então passado para a etapa seguinte. Essa conexão recorrente permite que a rede mantenha o contexto ao longo do tempo. O treinamento de RNNs normalmente envolve uma variação da retropropagação chamada Backpropagation Through Time (BPTT), que desdobra a rede ao longo do comprimento da seqüência para calcular gradientes. Variantes mais avançadas, como a Long Short-Term Memory (LSTM) e a Gated Recurrent Unit (GRU), foram desenvolvidas para resolver algumas limitações das RNNs simples, em especial o problema do gradiente decrescente, permitindo que elas aprendam dependências de longo prazo com mais eficiência. Podes explorar e treinar vários modelos, incluindo potencialmente modelos baseados em sequências, utilizando plataformas como o Ultralytics HUB.

Aplicações de RNNs

As RNNs têm sido fundamentais para o avanço das tarefas de modelação de sequências em vários domínios. Eis alguns exemplos:

RNNs vs. Outras Arquitecturas de Rede

Para compreender as RNNs, é necessário distingui-las de outros tipos de redes neurais:

  • Redes feedforward (por exemplo, MLPs, CNNs): Essas redes processam entradas de tamanho fixo sem memória inerente de entradas anteriores. A informação flui numa única direção, da entrada para a saída. Enquanto as CNNs se destacam em hierarquias espaciais (por exemplo, na classificação de imagens ou deteção de objectos), as RNNs são criadas para sequências temporais. Podes saber mais sobre modelos de deteção de objectos como o Ultralytics YOLO que usam principalmente arquiteturas CNN e Transformer.
  • Transformadores: Os transformadores, utilizando mecanismos de atenção, ultrapassaram largamente as RNNs em termos de desempenho de ponta para muitas tarefas de PNL. Conseguem modelar dependências de longo alcance de forma mais eficaz e permitem uma maior paralelização durante o treino, ultrapassando as principais limitações das RNN. Lê sobre a evolução da deteção de objectos para veres como diferentes arquitecturas têm capacidades avançadas de IA.
  • LSTM e GRU: Estes são tipos específicos de RNNs concebidos com mecanismos de gating para controlar melhor o fluxo de informação e mitigar o problema do gradiente de desaparecimento, tornando-os mais aptos a aprender sequências longas em comparação com os RNNs normais. Os materiais do curso CS230 de Stanford fornecem uma boa visão geral destas variantes.

Embora as arquitecturas mais recentes, como os Transformers, se tenham tornado dominantes em muitas áreas, os RNN continuam a ser conceitos fundamentais importantes na aprendizagem profunda e continuam a ser relevantes em aplicações específicas ou como componentes de modelos híbridos maiores. Compreender os seus mecanismos fornece uma visão valiosa sobre a evolução da modelação de sequências na IA. Para uma exploração mais aprofundada, recursos como a especialização DeepLearning.AI cobrem os RNNs em detalhes.

Lê tudo