用語集

確率的勾配降下法 (SGD)

リアルタイムタスクのためのUltralytics YOLO モデルなど、AI で使用されるディープラーニング最適化のための高速で効率的なアルゴリズムである確率的勾配降下法について説明します。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

確率的勾配降下法(SGD)は、機械学習モデル、特にディープラーニングの学習に用いられる一般的な最適化アルゴリズムである。これは、教師あり学習と教師なし学習の両方で重要な目的関数(一般的には損失関数)を最小化するための反復手法である。データセット全体を使用して損失関数の勾配を計算する標準的な勾配降下とは異なり、SGDは各ステップでデータのランダムなサブセットを使用するため、特に大規模なデータセットにおいて、より高速で効率的です。

SGDの仕組み

SGDは、損失関数の勾配とは逆方向にモデルパラメータを移動させることで更新する。SGDは、1つまたは数個の学習例のみを使用して勾配を評価するため、頻繁な更新が可能であり、大規模なデータシナリオにおいて収束を早めることができる。これによりSGDは、リアルタイムの物体検出やセグメンテーションにUltralytics YOLO 。

主な特徴

  • 効率:データのサブセットのみを考慮することで、SGDは勾配降下のようなフルバッチ手法に比べてオーバーヘッドを削減します。

  • 収束:SGDはその確率的性質により、バッチ勾配降下法よりも変動する可能性があるが、多くの場合、局所極小値から脱出することで、より良い解を見つけることができる。

  • 柔軟性:SGDは様々な損失関数やモデルに対応しており、多くの機械学習タスクにおいてその有用性を高めている。

実世界での応用

自動運転車

SGDは、安全なナビゲーションを保証するために、歩行者や車両などの環境内のオブジェクトを検出・分類するモデルのトレーニングに不可欠です。ビジョンAIのアプリケーションが自律走行車の交通安全をどのように維持しているかをご覧ください。

ヘルスケア診断

医療用画像処理では、SGDは、MRIスキャンで腫瘍を特定するなど、診断を支援するために画像を分類できるモデルの開発に役立っています。ヘルスケアにおけるビジョンAIの多様なアプリケーションをご覧ください。

関連概念:

勾配降下

勾配降下法は伝統的なアプローチであるが、データセット全体に対する勾配を各反復ごとに計算するため、大規模なデータセットではSGDよりも効率が悪い。

アダム・オプティマイザー

アダム・オプティマイザーは、適応学習率を使用することにより、SGDの上に構築され、複雑なモデルに対して高度で、しばしば望ましい選択となる。

メリットと課題

これは、Ultralytics YOLO モデルのトレーニングのように、リアルタイムのフィードバックを必要とする深層学習の実践者にとって有利である。しかし、ランダム性はノイズの多い更新につながる可能性がある。学習率スケジュールやモメンタムなどのテクニックは、このような問題を軽減することができる。

結論

確率的勾配降下法は、そのシンプルさと有効性により、AIモデルトレーニングの要であり続けている。その応用範囲は様々な産業や研究分野に及んでおり、機械学習やAI技術の活用を目指す実務家にとって不可欠なツールとなっている。AIとその影響の詳細については、以下をご覧ください。 Ultralyticsをご覧ください。

すべて読む