Glossário

Retropropagação

Aprende como a retropropagação treina redes neurais, reduz as taxas de erro e alimenta eficazmente as aplicações de IA, como o reconhecimento de imagens e a PNL.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A retropropagação é um algoritmo fundamental no domínio da aprendizagem profunda (AP) utilizado para treinar redes neurais (RNI). É o método de ajuste fino dos pesos de uma rede neural com base na taxa de erro obtida na época anterior (ou seja, iteração). O ajuste adequado dos pesos garante taxas de erro mais baixas, tornando o modelo fiável ao aumentar a sua generalização. Funciona calculando o gradiente da função de perda em relação aos pesos da rede. Essencialmente, após cada passagem para frente através de uma rede, a retropropagação executa uma passagem para trás enquanto ajusta os parâmetros do modelo (weights and biases). Esse processo é crucial para que a rede aprenda e melhore seu desempenho ao longo do tempo.

Como funciona a retropropagação

O algoritmo de retropropagação tem duas fases principais: a passagem para a frente e a passagem para trás.

  1. Passagem para a frente: Durante a passagem direta, os dados de entrada são inseridos na rede, e a rede produz uma previsão de saída. Em seguida, a função de perda compara essa previsão com o valor-alvo real, calculando o erro.
  2. Passagem para trás: Na passagem para trás, o algoritmo calcula o gradiente da função de perda em relação a cada peso, aplicando a regra de cálculo em cadeia. Os pesos são então actualizados na direção oposta ao gradiente, normalmente utilizando um algoritmo de otimização como o gradiente descendente ou uma das suas variantes. Este passo é crucial para minimizar o erro nas previsões subsequentes.

Importância da retropropagação

A retropropagação é essencial para o treinamento de modelos de aprendizagem profunda porque fornece uma maneira computacionalmente eficiente de calcular os gradientes necessários para atualizar os pesos de uma rede neural. Sem a retropropagação, seria impraticável treinar redes profundas com várias camadas, pois o custo computacional do cálculo dos gradientes seria proibitivamente alto. Permite que a rede aprenda padrões e relações complexas nos dados, ajustando iterativamente os pesos para minimizar o erro.

Aplicações do mundo real da retropropagação

A retropropagação é utilizada numa vasta gama de aplicações em vários domínios. Eis dois exemplos:

  1. Reconhecimento de imagens: Na visão computacional (CV), a retropropagação é utilizada para treinar redes neurais convolucionais (CNNs) para tarefas como a classificação de imagens e a deteção de objectos. Por exemplo, em veículos autónomos, as CNNs são treinadas para reconhecer objectos como peões, outros veículos e sinais de trânsito, permitindo que o veículo tome decisões de condução informadas. Sabe mais sobre veículos autónomos.
  2. Processamento de linguagem natural (PNL): no PNL, a retropropagação treina redes neurais recorrentes (RNNs) e modelos de transformadores para tarefas como tradução de idiomas, análise de sentimentos e geração de texto. Por exemplo, a retropropagação ajuda a melhorar a precisão de assistentes virtuais como a Siri e a Alexa, permitindo-lhes compreender e responder melhor aos comandos do utilizador. Explora mais sobre o processamento de linguagem natural (PNL).

Termos relacionados

  • Descida de gradiente: Um algoritmo de otimização utilizado para minimizar a função de perda, ajustando iterativamente os pesos na direção da descida mais acentuada do gradiente. Saiba mais sobre a descida de gradiente.
  • Função de perda: Uma função que mede a diferença entre o resultado previsto e o valor-alvo real. O objetivo do treinamento de uma rede neural é minimizar essa função. Saiba mais sobre funções de perda.
  • Rede neural: Uma rede de nós interligados, ou "neurónios", organizados em camadas. As redes neurais são concebidas para reconhecer padrões e são um componente fundamental da aprendizagem profunda. Mergulha nas redes neuronais.
  • Função de ativação: Uma função que introduz a não-linearidade na saída de um neurónio. As funções de ativação comuns incluem ReLU, sigmoide e tanh. Explora as funções de ativação.
  • Época: Uma passagem completa por todo o conjunto de dados de treinamento durante o processo de treinamento. Muitas vezes, são necessárias várias épocas para treinar uma rede neural de forma eficaz. Saiba mais sobre épocas.

Esses termos estão intimamente relacionados à retropropagação e são essenciais para entender como as redes neurais são treinadas. Ao compreender a retropropagação e os seus conceitos relacionados, podes obter informações mais aprofundadas sobre a mecânica da aprendizagem profunda e como modelos como Ultralytics YOLO são treinados para várias tarefas.

Lê tudo