用語集

最適化アルゴリズム

最適化アルゴリズムが、ニューラルネットワークのトレーニングからヘルスケアや農業における実際のアプリケーションまで、AIやMLのパフォーマンスをどのように向上させるかをご覧ください。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

人工知能(AI)や機械学習(ML)の領域では、最適化アルゴリズムはモデルを改良し、そのパフォーマンスを向上させるために使用される重要な手法である。これらのアルゴリズムは、モデルの予測値と実際の目標値との差を測定する事前に定義された損失関数を最小化するために、モデルのパラメータ(weights and biases)を繰り返し調整する。このプロセスは、ニューラルネットワークのような複雑なモデルを学習するための基本であり、データから効果的に学習し、画像認識から 自然言語処理(NLP)に至るまで、さまざまなタスクの精度と信頼性を向上させることができる。最適化アルゴリズムは、最も正確な予測を行うためにモデルを調整します。

AIと機械学習における関連性

最適化アルゴリズムは、ほとんどのMLモデル、特にディープラーニング(DL)における学習プロセスを推進するエンジンである。畳み込みニューラルネットワーク(CNN)やリカレント・ニューラル・ネットワーク(RNN)などのモデルは、広大なパラメータ空間をナビゲートし、良好なパフォーマンスをもたらす構成を見つけるために、これらのアルゴリズムに大きく依存している。効果的な最適化がなければ、モデルは最適解に収束するのに苦労し、その結果、予測精度が低下し、学習時間が長くなる。例えば Ultralytics YOLOモデルは、リアルタイムの物体検出で高い精度を達成するために、トレーニング中に高度な最適化アルゴリズムを利用しています。これらのアルゴリズムは、GPT-4やその他の大規模言語モデル(LLM)のような最先端モデルの学習にも不可欠であり、その素晴らしい能力を可能にしています。オプティマイザの選択は、モデルトレーニングのヒントに関するガイドで説明したように、トレーニングの速度と最終的なモデルの性能に大きな影響を与えます。ロスランドスケープを効率的に探索することが、モデルトレーニングを成功させる鍵です。

キーコンセプトとアルゴリズム

機械学習ではいくつかの最適化アルゴリズムが広く使われており、それぞれ損失ランドスケープのナビゲートとモデルパラメータの更新に異なる戦略を提供している。一般的な例としては、以下のようなものがある:

  • グラデーション降下:損失関数の勾配の反対方向にパラメーターを反復的に移動させる基礎的なアルゴリズム。坂道を慎重に下りながら最低点を探すようなもの。パフォーマンスを向上させるために様々なバリエーションが存在する。
  • 確率的勾配降下法 (SGD):勾配降下のバリエーションで、一度に1つまたはいくつかの学習例(ミニバッチ)のみを使用してパラメータを更新します。
  • アダム・オプティマイザー:勾配の一次モーメントと二次モーメントの推定値から、異なるパラメータに対する個別の適応学習率を計算する適応学習率最適化アルゴリズム。効率の良さで知られ、ディープラーニングで広く使われている。技術的な詳細については、オリジナルのAdam論文をお読みください。
  • RMSprop:ある重みに対する学習率を、その重みに対する最近の勾配の大きさの実行平均で割る、もう一つの適応的学習率法。

これらのオプティマイザは、以下のようなMLフレームワークの中で設定可能なパラメータであることが多い。 PyTorchTensorFlowUltralytics HUBのようなプラットフォーム内で設定可能なパラメータであることが多く、ユーザーは特定のタスクやデータセットに最適なものを選択できる。適切なオプティマイザを選択することは、効率的なモデル学習にとって非常に重要です。

実世界での応用

最適化アルゴリズムは、様々な分野でAI/MLが成功するための基本である:

  1. ヘルスケア 医療画像解析では、最適化アルゴリズムがモデルを訓練して、腫瘍のような異常を検出したり、組織の種類を分類したりする。例えば、腫瘍検出にYOLO11 使用する場合、最適化アルゴリズムは、注釈付きの医療スキャン(データセット)に基づいてモデルのパラメータを調整し、癌領域を正確に特定することで、放射線科医の診断を支援します。ヘルスケアにおけるAIソリューションをもっと見る。
  2. 自律走行車最適化アルゴリズムは、自律走行車の知覚システムのトレーニングに不可欠である。カメラやLiDARなどのセンサーデータから、歩行者、他の車両、信号機、車線などを検出するためのモデルを改良する。アダムのようなアルゴリズムは、モデルが高い精度で物体を識別することを迅速に学習するのに役立ちます。車載AIソリューションについて詳しくはこちら
  3. ファイナンス不正検出や株式市場予測のためのモデルのトレーニングは、過去のデータに基づいて予測誤差を最小化する最適化に大きく依存しています。
  4. Eコマース: レコメンデーションシステムは、ユーザーの嗜好を予測し、関連する商品を提案するアルゴリズムを微調整するために最適化を使用し、エンゲージメントと売上を最大化する。

最適化アルゴリズムと関連概念との比較

最適化アルゴリズムを関連するMLの概念と区別することは重要だ:

  • 最適化アルゴリズムとハイパーパラメータのチューニング 最適化アルゴリズム アダム または SGD)を調整する。 内部パラメータ (モデルのweights and biases 期間中 を最小化するためのトレーニングプロセスである。 損失関数.一方、ハイパーパラメータチューニングは、最適な 外部構成設定 (のようなハイパーパラメータ)。 学習率, バッチサイズあるいは最適化アルゴリズムそのものの選択) 以前 トレーニングが始まる。のようなツールがある。 Ultralytics Tuner クラス のような方法を用いて、ハイパーパラメータのチューニングを自動化する。 進化的アルゴリズム.を読む ハイパーパラメータ調整ガイド をご覧ください。
  • 最適化アルゴリズムと損失関数の比較:損失関数は、予測値と実際の値との誤差を測定することで、モデルの性能を定量化します。最適化アルゴリズムは、この定量化された誤差を最小化するために、モデルのパラメータを繰り返し調整するために使用されるメカニズムです。タスクによって異なる損失関数が選択されるかもしれません(例えば、分類のためのクロスエントロピー、回帰のための平均二乗誤差)。
  • 最適化アルゴリズムとモデルアーキテクチャの比較:モデル・アーキテクチャは、層の数と種類(畳み込み層、ドロップアウト層な ど)、層の接続方法など、ニューラルネットワークの構造を定義する。最適化アルゴリズムは、この事前定義されたアーキテ クチャ内で動作し、これらの層に関連する学習可能なパラメータweights and biases)を学習します。アーキテクチャの設計とオプティマイザーの選択は、効果的なMLモデルを構築する上で非常に重要なステップである。ニューラル・アーキテクチャ・サーチ(NAS)は、アーキテクチャ設計を自動化する関連分野である。
すべて読む