用語集

LoRA(低ランク適応)

LoRAがYOLO のような大規模なAIモデルを効率的に微調整し、コストを削減し、最小限のリソースでエッジ展開を可能にする方法をご覧ください。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

LoRA(Low-Rank Adaptation)は、大規模な言語モデル、ひいてはコンピュータ・ビジョンで使用されるものを含む他の大規模なAIモデルの分野で特に有用な、パラメータ効率の高い微調整技術である。本質的に、LoRAは、計算コストと時間のかかるモデル全体の再学習を必要とすることなく、事前に訓練されたモデルを特定のタスクやデータセットに効率的に適応させることができる。

LoRAとは?

LoRAは、事前に訓練されたモデルを新しいタスクに適応させるために必要な変更は、低次元の部分空間にあることが多いという考えに着目している。大規模なモデルの全パラメータを更新する代わりに、LoRAは事前に訓練されたモデルの重みを凍結し、「低ランク」行列として知られる少数の新しいパラメータをTransformerアーキテクチャの各層に注入する。微調整の際には、新たに追加された低ランク行列のみが訓練され、訓練可能なパラメータ数が大幅に削減される。このアプローチは、完全な微調整に匹敵する性能を達成しながら、計算コストとメモリ要件を大幅に削減する。

この方法は、大規模言語モデル(LLM)のようなモデルや、Ultralytics YOLO モデルのような大規模視覚モデルを扱う場合に特に有益である。このようなモデルでは、モデルのサイズが非常に大きいため、完全な微調整は現実的ではないかもしれない。LoRAを使用することで、研究者や実務家は、限られたリソースで特定のアプリケーションのためにこれらの強力なモデルを効率的にカスタマイズすることができます。

LoRAの妥当性と応用

LoRAの最大の意義はその効率性にある。コンシューマーグレードのGPUやエッジデバイスでさえも、膨大な事前学習済みモデルの微調整を可能にし、高度なAIをより身近なものにする。このことは、様々なアプリケーションにおいて幅広い意味を持つ:

  • パーソナライズされたモデル:LoRAは、個々のユーザーの嗜好や特定のニーズに合わせたパーソナライズドAIモデルの作成を可能にする。例えば、パーソナライズされた推薦システムやカスタマイズされたコンテンツ生成において、LoRAは一般的なモデルを個々のユーザーデータに効率的に適応させることができます。これは、AI主導のバーチャルアシスタントによるユーザー体験の向上や、クリエイティブ分野での特注コンテンツの作成などの用途で特に役立ちます。

  • 効率的なドメイン適応: 医療画像解析や特殊な産業アプリケーションなど、事前に訓練されたモデルを非常に特殊なドメインに適応させる必要があるシナリオでは、LoRAを使用することで、大規模な再トレーニングを行うことなく、効率的にモデルを微調整することができます。例えば、Ultralytics YOLO オブジェクト検出モデルを、非常に特殊な製造欠陥検出タスクに適応させることは、LoRAを使用することで迅速に行うことができる。この効率性は、特殊な分野での迅速な展開と反復に極めて重要である。

  • エッジへの展開:LoRA適応モデルは、完全に微調整されたモデルと比較してサイズが小さいため、スマートフォンや組み込みシステムなど、計算リソースが限られたエッジコンピューティングデバイスへの展開に適しています。これにより、リアルタイムの推論やデバイス上でのAI処理が容易になり、リソースに制約のあるハードウェア上でのリアルタイムの物体検出や、効率的なモバイルアプリケーションなどのアプリケーションの可能性が広がります。

LoRA対フル微調整

従来のファインチューニングでは、事前に訓練されたモデルの全パラメータを更新する。これは優れた結果をもたらすが、計算コストが高く、ファインチューニングされたモデルごとに大きな記憶領域を必要とする。LoRAは、次のような魅力的な代替手段を提供します:

  • 計算コストの削減:低ランク行列のみをトレーニングすることで、計算回数が大幅に削減される。これにより、微調整がより高速になり、リソースの消費も少なくなります。
  • メモリフットプリントの低減:LoRAは、元のモデル全体ではなく、低ランク行列のみを追加して学習させるため、微調整されたモデルをはるかに小さく作成できる。これは、特にメモリに制約のある環境では、ストレージや展開に有利です。
  • 実験の迅速化:LoRAの効率性により、さまざまなタスクやデータセットでの迅速な実験が可能になり、AIアプリケーションの開発と展開のサイクルが加速する。

場合によっては、可能な限り絶対的な精度を達成するために、完全な微調整が依然として望ましいかもしれないが、LoRAは、効率的な適応のための強力かつ実用的なアプローチを提供し、パフォーマンスとリソース利用のバランスを取り、高度なAI技術をより広く利用できるようにする。Ultralytics HUBのようなツールは、LoRA適応モデルの管理と展開のプロセスをさらに合理化し、この効率的な微調整技術を活用するためのユーザーフレンドリーなプラットフォームを提供することができます。

すべて読む