用語集

確率的勾配降下法 (SGD)

確率的勾配降下がどのように機械学習モデルを最適化し、大規模なデータセットやディープラーニングタスクの効率的な学習を可能にするかをご覧ください。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

確率的勾配降下法(SGD)は、機械学習やディープラーニングで広く使われている最適化アルゴリズムだ。SGDは勾配降下の一種で、特に大規模なデータセットを扱う場合にモデルを効率的に学習するように設計されている。SGDは、損失関数を最小化するためにモデルのパラメータを反復的に更新することで、最適なパフォーマンスをもたらすパラメータセットへとモデルを導く。データセット全体から勾配を計算する従来の勾配降下法とは異なり、SGDはランダムに選択された1つのデータポイントまたは少量のデータバッチから勾配を推定します。このアプローチは、特に大規模な機械学習タスクにおいて、計算を高速化し、メモリ効率を向上させます。

機械学習における関連性

確率的勾配降下法は、多くの機械学習モデル、特にモデルが数百万から数十億のパラメータを持つことが多い深層学習の分野を学習するための基本である。大規模なデータセットを効率的に扱うことができるため、画像分類物体検出自然言語処理など、さまざまなアプリケーションで使用される複雑なニューラルネットワークの学習に最適である。次のようなフレームワークがあります。 PyTorchやTensorFlow といったフレームワークがSGDとその変種を広く実装しており、最新のAI開発の要となっている。 Ultralytics YOLO例えば、SGDを含む最適化アルゴリズムを活用することで、リアルタイムの物体検出において最先端の性能を達成している。

キーコンセプトとバリエーション

SGDの基本原理は一貫しているが、SGDのパフォーマンスを向上させ、その限界に対処するために、いくつかのバリエーションが開発されてきた。主なコンセプトと人気のあるバリエーションは以下の通りである:

  • グラデーション降下:SGDの元となった基礎的な最適化アルゴリズムで、データセット全体を使って勾配を計算する。
  • ミニバッチ勾配降下法:SGDと従来の勾配降下法の折衷案で、少量のデータバッチを使用して勾配を計算し、計算効率と勾配精度のバランスを提供する。
  • アダム・オプティマイザー:SGDをベースに、各パラメータに運動量と適応学習率を取り入れた適応型最適化アルゴリズム。

関連概念との違い

SGDは、他の最適化技術や機械学習の概念とは異なるが、密接に関連している:

  • 最適化アルゴリズム:SGDは最適化アルゴリズムであるが、より広範なカテゴリーには、アダム・オプティマイザーや、損失関数を最小化するために異なるアプローチを使用する可能性のある最適化アルゴリズムのような他の手法が含まれる。SGDの特徴は、ランダムなデータ点またはバッチを使用する確率的性質です。
  • バッチサイズ:SGDの性能はバッチサイズに影響されることがある。バッチサイズ1(真のSGD)を使用すると、勾配更新にノイズが発生する可能性があります。
  • 学習率:他の勾配ベースの最適化アルゴリズムと同様に、SGDの有効性は、パラメータ更新時のステップサイズを制御する学習率に敏感です。モデルの学習を成功させるには、学習率を慎重に調整することが重要です。

実世界での応用

SGDの効率性と汎用性により、実世界の幅広いシナリオに適用できる:

例1:医用画像解析

医療画像解析において、SGDは、X線、MRI、CTスキャンなどの医療画像から病気を検出できるディープラーニングモデルを訓練するために極めて重要である。例えば、SGDで訓練された畳み込みニューラルネットワーク(CNN)は、腫瘍やその他の異常を示す微妙なパターンを識別することを学習し、より迅速で正確な診断に役立てることができる。これは、タイムリーで正確な検出が患者の転帰を大幅に改善する、医療におけるAIのような用途では不可欠です。

例2:自律走行

自動運転車は、周囲の状況を認識するために、物体検出モデルに大きく依存している。SGDは、歩行者、車両、交通標識、その他の物体をリアルタイムで正確に識別するために、これらのモデルを訓練する上で重要な役割を果たしている。 Ultralytics YOLOSGDを使用してトレーニング可能なAIは、物体検出タスクにおける速度と精度の高さから、自律走行システムにしばしば採用され、より安全で効率的なナビゲーションを可能にしています。自動運転車におけるAIが、リアルタイムの知覚のためにこれらの技術をどのように活用しているかについては、こちらをご覧ください。

データの小さな部分集合に基づいてモデルパラメータを効率的に更新することで、確率的勾配降下法は、膨大な数のAIアプリケーションのための複雑で効果的な機械学習モデルの学習を可能にする基本的なアルゴリズムであり続けている。

すべて読む