Ultralytics YOLO のようなAIモデルを最適化し、ヘルスケアから自動運転車までのタスクで正確な予測を可能にする勾配降下法をご覧ください。
勾配降下は、機械学習(ML)や人工知能(AI)で広く使用されている基本的な最適化アルゴリズムである。以下のような複雑なディープラーニングアーキテクチャを含む、多くのモデルをトレーニングするための主要な方法として機能します。 Ultralytics YOLO.勾配降下の目標は、モデルの内部パラメータweights and biases繰り返し調整して、モデルの予測値と実際の目標値との差を測定する損失関数を最小化することだ。目隠しをした状態で谷の一番低いところを探そうとするのを想像してほしい。勾配降下は、現在地で最も急な下降方向に小さなステップを踏むことであなたを導く。この反復プロセスにより、モデルはデータから学習し、予測精度を向上させることができる。
勾配降下法は、現代の多くのAIアプリケーションの基礎となるニューラルネットワークのような高度なモデルを学習する上で特に重要である。物体検出、画像分類、自然言語処理(NLP)などに使用されるこれらのモデルは、最適化が必要な数百万のパラメータを持つことが多い。勾配降下とその変種は、複雑な損失ランドスケープをナビゲートし、良好なパフォーマンスをもたらすパラメータ値を見つけるための、計算実行可能な方法を提供します。勾配降下による効果的な最適化がなければ、このような大規模なモデルを高精度に訓練することは現実的ではありません。次のようなフレームワークがあります。 PyTorchや TensorFlowのようなフレームワークは、勾配降下の実装に大きく依存しています。
勾配降下の核となる考え方は、モデル・パラメータに対する損失関数の勾配(最も急峻に上昇する方向)を計算し、それから反対方向にステップを踏むことである。このステップの大きさは、重要なハイパーパラメータである学習率によって制御される。効率と安定性を向上させるために、いくつかのバリエーションが存在する:
勾配降下法とは、最適化アルゴリズムの一種で、バックプロパゲーションによって計算された勾配を用いてモデルのパラメータを調整することにより、損失関数を反復的に最小化することに焦点を当てたものである。関連する概念とは異なります:
勾配降下法は、数え切れないほどの実世界のAIアプリケーションの学習モデルを支えるエンジンである: