アダム・オプティマイザーが、適応学習率、モメンタム、AIにおける実世界でのアプリケーションを備えた効率的なニューラルネットワーク・トレーニングをどのようにパワーアップさせるかをご覧ください。
Adam(Adaptive Moment Estimation)は、機械学習(ML)や深層学習(DL)でよく使われる強力な最適化アルゴリズムである。学習データに基づいてモデルのパラメータ(重みとバイアス)を繰り返し更新することで、モデルの最適値を効率的に求めるように設計されている。Adamは、その収束速度の速さと幅広い問題に対する有効性が高く評価され、カスタムモデルをトレーニングする際に多くの実務家がデフォルトで選択する一般的な手法となっている。Adamの開発は、大規模で複雑なモデルの学習をより実用的なものにするための重要なステップでした。
アダムの主な革新点は、個々のパラメータに学習率を適応させる機能である。アダムは、ネットワーク内のすべての重みに単一の固定された学習率を使用する代わりに、トレーニングの進行に応じて調整される個々の学習率を計算する。これは、他の2つの最適化手法の利点を組み合わせることで実現されている:RMSPropとMomentumである。アダムは2つの主要な要素を追跡する。1つ目のモーメント(勾配の平均、モメンタムに似ている)と2つ目のモーメント(勾配の非中心分散)である。この組み合わせにより、勾配が一貫しているパラメータに対してはより大きなステップを踏み、ノイズの多いパラメータや勾配が疎なパラメータに対してはより小さなステップを踏み、より情報に基づいた更新を行うことができる。この方法は、KingmaとBaによるオリジナルのAdamの研究論文に詳述されている。
アダムを他の一般的なオプティマイザーと比較することは、その強みを理解するのに役立つ。
アダムの効率性と堅牢性は、幅広い用途に適している。
Ultralyticsのエコシステムでは、Adamとその亜種のAdamWが、UltralyticsのYOLOモデルをトレーニングするためのオプティマイザーとして利用できます。Adamの適応学習レートを活用することで、YOLO11や YOLOv10のようなオブジェクト検出、インスタンス分割、ポーズ推定モデルのトレーニング中の収束を加速させることができます。 SGDは、最終的な汎化性が向上する可能性があるため、YOLOモデルのデフォルトや推奨オプティマイザとして使用されることがよくありますが、Adamはロバストな代替手段を提供し、特に初期の実験中に役立ちます。オプティマイザやその他のトレーニング設定は簡単に設定できる。Ultralytics HUBのようなツールはプロセスを効率化し、ユーザーはローカルまたはクラウドトレーニング経由で、Adamを含む様々なオプティマイザを使用してモデルをトレーニングすることができます。PyTorchや TensorFlowのようなフレームワークは、Adamの標準的な実装を提供し、Ultralyticsフレームワーク内で利用される。