ResNetsが消失勾配を解決することでディープラーニングにどのような革命をもたらし、画像解析やNLPなどのための超ディープネットワークを可能にしているかをご覧ください。
Residual Networks(通称ResNet)は、Microsoft Researchの Kaiming He氏らによって開発された画期的な畳み込みニューラルネットワーク(CNN)アーキテクチャである。ResNetは、2015年の論文「Deep Residual Learning for Image Recognition」で紹介され、深層学習(DL)における大きな課題である「劣化問題」に対処した。この問題は、非常に深いネットワークにさらにレイヤーを追加すると、より深いモデルがより良いパフォーマンスを示すはずだという期待に反して、学習誤差が大きくなる場合に発生する。ResNetの技術革新により、これまで実現可能であったよりも大幅に深いネットワークのトレーニングに成功し、さまざまなコンピュータビジョン(CV)タスクの最先端を大きく前進させることができました。
ResNetの核となるアイデアは、"スキップ接続 "または "ショートカット接続 "の導入である。従来のディープネットワークでは、各レイヤーは次のレイヤーに順次フィードされる。ResNetはこれを変更し、ある層のブロックの入力をそのブロックの出力に追加できるようにした。これにより "残差ブロック "が形成され、各レイヤーは基礎となるマッピング全体を直接学習するのではなく、残差マッピング(入力と希望する出力の差)を学習する。最適な関数が(出力が入力と同じであるべき)同一性マッピングに近い場合、ネットワークにとっては、非線形層を通して同一性マッピングそのものを学習するよりも、(積み重ねられた層の重みをゼロに向けて駆動することによって)残差をゼロにすることを学習する方が簡単である。
これらのスキップ接続は、バックプロパゲーション中の勾配フローを促進し、非常に深いネットワークをしばしば悩ませる消失勾配問題を緩和します。これにより、数百から数千のレイヤーを持つネットワークの構築と効果的な学習が可能になり、ImageNetのような困難なベンチマークデータセットで目覚ましい精度向上を達成した。
ResNetアーキテクチャは、画像分類以外の多くのコンピュータ・ビジョン・タスクの標準的なバックボーンとなった:
画像から強力な特徴を抽出する能力により、非常に汎用性が高く、広く採用されているアーキテクチャとなった。
ResNetアーキテクチャは、以下のような主要なディープラーニングフレームワークで容易に利用できます。 PyTorchPyTorch 公式サイト)や TensorFlowTensorFlow 公式サイト)。多くの場合ImageNetで訓練された事前訓練済みモデルは、torchvisionのようなライブラリからアクセス可能で、効果的な転移学習を可能にする。Ultralytics HUBのようなプラットフォームでは、ResNetベースのものを含む様々なアーキテクチャを活用して、カスタムモデルをトレーニングし、デプロイすることができるUltralytics HUBドキュメント)。スタンフォード大学のCS231nや、DeepLearning.AIが提供するようなコースで、CNNに関するさらなる教育リソースを見つけることができる。