了解 ResNets 如何通过解决梯度消失问题,为图像分析、NLP 等实现超深度网络,从而彻底改变深度学习。
残差网络(Residual Networks)通常称为 ResNet,是何开明和Microsoft 研究院的同事开发的一种突破性卷积神经网络(CNN)架构。ResNet 在他们 2015 年的论文《图像识别的深度残差学习》中提出,ResNet 解决了深度学习(DL)中的一个主要挑战:退化问题。这个问题发生在为深度网络添加更多层时,会导致更高的训练误差,这与更深的模型应该表现更好的预期背道而驰。ResNet 的创新使深度网络的训练取得了成功,大大超过了以往的可行性,极大地推动了各种计算机视觉 (CV)任务的发展。
ResNet 的核心理念是引入 "跳过连接 "或 "快捷连接"。在传统的深度网络中,每一层依次馈入下一层。ResNet 对此进行了修改,允许将一个层块的输入添加到该层块的输出中。这就形成了一个 "残差块",各层在此学习残差映射(输入与期望输出之间的差值),而不是直接学习整个底层映射。如果最优函数更接近于身份映射(即输出应与输入相同),那么网络学习使残差为零(通过驱动堆叠层的权重趋于零)比通过非线性层学习身份映射本身要容易得多。
在反向传播过程中,这些跳转连接可促进梯度流动,缓解经常困扰深度网络的梯度消失问题。这样就能构建并有效训练具有数百甚至数千层的网络,在ImageNet 等具有挑战性的基准数据集上实现显著的精度提升。
ResNet 架构很快成为图像分类之外的许多计算机视觉任务的标准骨干,包括
它能够从图像中提取强大的特征,因此是一种用途广泛、被广泛采用的架构。
主要的深度学习框架(如 PyTorch(PyTorch 官方网站)和 TensorFlow(TensorFlow 官方网站)。通常在ImageNet 上训练的预训练模型可通过torchvision 等库访问,从而实现有效的迁移学习。Ultralytics HUB等平台允许用户利用各种架构(包括基于 ResNet 的架构)来训练自定义模型并进行部署Ultralytics HUB 文档)。您可以在斯坦福 CS231n或DeepLearning.AI 提供的课程中找到有关 CNN 的更多教育资源。