Explore o poder das redes residuais (ResNet). Saiba como as ligações de salto resolvem o problema do gradiente desaparecido para permitir o aprendizado profundo para a visão computacional.
As redes residuais, amplamente conhecidas como ResNets, são um tipo específico de arquitetura de rede neural artificial (ANN) projetada para permitir o treinamento de redes extremamente profundas. Introduzida por pesquisadores da Microsoft 2015, a ResNet resolveu um gargalo crítico no aprendizado profundo conhecido como problema do gradiente desaparecido. Nas redes tradicionais, o empilhamento de mais camadas muitas vezes levava à saturação ou degradação do desempenho, porque o sinal necessário para atualizar os pesos do modelo desaparecia à medida que se propagava para trás através das camadas. A ResNet introduziu as "conexões de salto" (ou conexões residuais), que permitem que os dados contornem uma ou mais camadas e fluam diretamente para os estágios de processamento subsequentes. Essa inovação provou que redes mais profundas poderiam ser treinadas de forma eficaz, levando a avanços significativos na visão computacional (CV) e tornando-se um conceito fundamental para arquiteturas modernas.
A característica definidora de uma ResNet é o «bloco residual». Numa rede neural convolucional (CNN) padrão, cada camada tenta aprender um mapeamento direto da entrada para a saída. À medida que as redes se tornam mais profundas, aprender esse mapeamento direto torna-se cada vez mais difícil.
O ResNet altera essa abordagem ao formular o objetivo de aprendizagem de maneira diferente. Em vez de esperar que cada pilha de camadas aprenda todo o mapeamento subjacente, o bloco residual força as camadas a aprender o «resíduo» — ou a diferença — entre a entrada e a saída desejada. A entrada original é então adicionada de volta ao residual aprendido através de uma conexão de salto. Essa mudança estrutural implica que, se um mapeamento de identidade (passando a entrada inalterada) for ótimo, a rede pode facilmente aprender a empurrar os resíduos para zero. Isso torna os modelos de aprendizagem profunda (DL) muito mais fáceis de otimizar, permitindo que eles sejam dimensionados de dezenas para centenas ou até milhares de camadas.
Desde a sua criação, várias variações do ResNet tornaram-se referências padrão na comunidade de IA.
A robustez das arquiteturas ResNet tornou-as a escolha preferida para uma ampla gama de tarefas visuais.
É útil distinguir a ResNet de outras arquiteturas populares para compreender a sua utilidade específica.
Bibliotecas modernas de deep learning, como PyTorch o acesso a modelos ResNet pré-treinados. Esses modelos são inestimáveis para o aprendizado por transferência, em que um modelo treinado em um grande conjunto de dados, como ImageNet é ajustado para uma tarefa específica.
O seguinte Python demonstra como carregar um modelo ResNet-50 pré-treinado usando
torchvision (parte do PyTorch ) e execute uma passagem simples. Enquanto os utilizadores do
Plataforma Ultralytics pode usar frequentemente
YOLO26 Para a deteção, compreender os conceitos básicos subjacentes,
como o ResNet, é crucial para uma personalização avançada.
import torch
import torchvision.models as models
# Load a pre-trained ResNet-50 model
resnet50 = models.resnet50(weights=models.ResNet50_Weights.DEFAULT)
resnet50.eval() # Set model to evaluation mode
# Create a dummy input tensor (batch_size, channels, height, width)
input_tensor = torch.randn(1, 3, 224, 224)
# Perform a forward pass to get predictions
with torch.no_grad():
output = resnet50(input_tensor)
print(f"Output shape: {output.shape}") # Expect [1, 1000] for ImageNet classes
Embora arquiteturas mais recentes, como YOLO26, empreguem estruturas altamente otimizadas para máxima velocidade e precisão, os princípios da aprendizagem residual permanecem onipresentes. O conceito de conexões de salto é agora um componente padrão em muitas redes avançadas, incluindo transformadores usados no processamento de linguagem natural (NLP) e nos modelos mais recentes de detecção de objetos. Ao permitir que as informações fluam mais livremente pela rede, o ResNet abriu caminho para os modelos profundos e complexos que alimentam a inteligência artificial atual.