バックプロパゲーションがどのようにニューラルネットワークを訓練し、エラー率を低減し、画像認識やNLPのようなAIアプリケーションを効率的に強化するかを学ぶ。
バックプロパゲーションは、「誤差の後方伝播」の略で、人工ニューラルネットワーク、特にディープラーニングの学習に使われる基本的なアルゴリズムだ。これは、ネットワークの各パラメーター(重みとバイアス)が予測の全体的な誤差にどれだけ寄与したかを効率的に計算することで、モデルが失敗から学ぶことを可能にするエンジンだ。この情報は最適化アルゴリズムによって使用され、モデル学習中にパラメータを調整し、モデルのパフォーマンスを長期的に向上させる。
このプロセスには、最初の予測の後、主に2つの段階がある:
バックプロパゲーションは、最新のディープラーニングの成功の基本である。バックプロパゲーションは、コンピューター・ビジョンで広く使われている畳み込みニューラルネットワーク(CNN)や、テキストのようなシーケンシャルなデータに使われるリカレント・ニューラル・ネットワーク(RNN)のような、非常に深く複雑なアーキテクチャーの学習を可能にする。バックプロパゲーションが提供するような勾配を計算する効率的な方法がなければ、このような大規模モデルの学習は計算上不可能である。バックプロパゲーションは、膨大な量のデータから複雑な特徴や関係を自動的に学習することを可能にし、1980年代の普及以来、多くのAIの進歩の基礎を形成してきた。
バックプロパゲーションは、ディープ・ラーニング・モデルがトレーニングされるときは常に暗黙的に使用される。以下に2つの例を挙げる:
密接に関連しているが、バックプロパゲーションは勾配降下とは異なる。バックプロパゲーションは、特にネットワークのパラメータに対する損失関数の勾配を計算するアルゴリズムである。勾配降下法(およびその亜種)は、これらの計算された勾配を使用してパラメータを反復的に更新し、損失を最小化する最適化アルゴリズムです。バックプロパゲーションは、特に非常に深いネットワークにおいて、消失勾配問題のような問題に悩まされることがあるが、ReLU活性化関数や残差接続を使用するようなテクニックはこれを軽減するのに役立つ。