Изучите возможности сетей Residual Networks (ResNet). Узнайте, как пропускные соединения решают проблему исчезающего градиента, позволяя использовать глубокое обучение в компьютерном зрении.
Остаточные сети, широко известные как ResNets, представляют собой особый тип архитектуры искусственных нейронных сетей (ANN), разработанный для обучения чрезвычайно глубоких сетей. Внедренная исследователями Microsoft 2015 году, ResNet решила критическую проблему глубокого обучения, известную как проблема исчезающего градиента. В традиционных сетях наложение дополнительных слоев часто приводило к насыщению или ухудшению производительности, поскольку сигнал, необходимый для обновления весов модели, затухал при распространении назад через слои. ResNet ввела «пропускные соединения» (или остаточные соединения), которые позволяют данным обходить один или несколько слоев и поступать непосредственно на последующие этапы обработки. Эта инновация доказала, что более глубокие сети могут быть эффективно обучены, что привело к значительным прорывам в компьютерном зрении (CV) и стало основополагающей концепцией для современных архитектур.
Отличительной особенностью ResNet является «остаточный блок». В стандартной сверточной нейронной сети (CNN) каждый слой пытается научиться прямому отображению от входа к выходу. По мере углубления сетей обучение этому прямому отображению становится все более сложным.
ResNet меняет этот подход, формулируя цель обучения по-другому. Вместо того, чтобы надеяться, что каждый стек слоев выучит все базовое отображение, остаточный блок заставляет слои выучить «остаток» — или разницу — между входом и желаемым выходом. Затем исходный входной сигнал добавляется обратно к обученному остатку через пропускное соединение. Это структурное изменение подразумевает, что если отображение идентичности (пропускающее входной сигнал без изменений) является оптимальным, сеть может легко научиться сбрасывать остатки до нуля. Это значительно упрощает оптимизацию моделей глубокого обучения (DL), позволяя им масштабироваться от десятков до сотен или даже тысяч слоев.
С момента своего появления несколько вариантов ResNet стали стандартными тестами в сообществе искусственного интеллекта.
Надежность архитектур ResNet сделала их оптимальным выбором для широкого спектра визуальных задач.
Чтобы понять специфическую полезность ResNet, полезно отличать ее от других популярных архитектур.
Современные библиотеки глубокого обучения, такие как PyTorch доступ к предварительно обученным моделям ResNet. Эти модели незаменимы для переноса обучения, когда модель обучается на большом наборе данных, таком как ImageNet , подгоняется для решения конкретной задачи.
Следующий Python демонстрирует, как загрузить предварительно обученную модель ResNet-50 с помощью
torchvision (часть PyTorch ) и выполнить простой прямой проход. В то время как пользователи
Платформа Ultralytics может часто использовать
YOLO26 для обнаружения, понимание основных концепций, таких как ResNet, имеет решающее значение для расширенной настройки.
import torch
import torchvision.models as models
# Load a pre-trained ResNet-50 model
resnet50 = models.resnet50(weights=models.ResNet50_Weights.DEFAULT)
resnet50.eval() # Set model to evaluation mode
# Create a dummy input tensor (batch_size, channels, height, width)
input_tensor = torch.randn(1, 3, 224, 224)
# Perform a forward pass to get predictions
with torch.no_grad():
output = resnet50(input_tensor)
print(f"Output shape: {output.shape}") # Expect [1, 1000] for ImageNet classes
Хотя более новые архитектуры, такие как YOLO26, используют высокооптимизированные структуры для обеспечения максимальной скорости и точности, принципы остаточного обучения остаются повсеместными. Концепция пропускных соединений в настоящее время является стандартным компонентом многих передовых сетей, включая трансформаторы, используемые в обработке естественного языка (NLP) и новейших моделях обнаружения объектов. Обеспечивая более свободный поток информации по сети, ResNet подготовил почву для глубоких, сложных моделей, которые лежат в основе современного искусственного интеллекта.