Prompt Tuningで大規模な言語モデルを効率的に最適化 - コストを削減し、リソースを節約し、タスク固有の適応性を簡単に実現します。
プロンプトチューニングは、大規模な事前学習済みモデル、特に大規模言語モデル(LLM)を、モデル全体を更新することなく、特定の下流タスクに適応させるための合理的かつ効率的な手法である。何十億ものパラメータを変更する代わりに、プロンプトチューニングは、しばしば「ソフトプロンプト」と呼ばれる、タスクに特化したプロンプトパラメータの小さなセットを学習することに重点を置く。このアプローチにより、計算コストとメモリ要件が大幅に削減され、GPT-3や GPT-4のような巨大なモデルを、限られたリソースの特殊なアプリケーションに適応させることが可能になる。
プロンプトチューニングの中核となる考え方は、事前に訓練されたモデルの中に埋め込まれた膨大な知識を凍結したままにし、学習されたプロンプトベクトルを使用してその動作を導くことである。これらのソフトプロンプトは、バックプロパゲーションによって最適化された連続的なベクトル表現であり、特定のタスクに対する望ましい出力に向けてモデルを効果的に誘導する。プロンプトが手動で作成されたテキストである従来のプロンプトエンジニアリングとは異なり、このソフトプロンプトは学習されたパラメータである。
プロンプトチューニングは、PEFT(Parameter-Efficient Fine-Tuning:パラメータ効率的な微調整)の一形態を提供し、各タスクで学習・保存する必要のあるパラメータの数を大幅に削減するため、非常に関連性が高い。The Power of Scale for Parameter-Efficient Prompt Tuning(パラメータ効率に優れたプロンプトチューニングのためのスケールの力)」のような研究で詳述されているように、数十億のパラメータを持つモデルに対して、プロンプトチューニングは数千または数百万を最適化するだけで済むかもしれない。この効率性により、大規模なモデルの複数のカスタマイズバージョンを、法外なストレージや計算オーバーヘッドなしに容易に展開できるようになり、強力な基礎モデルの利用が民主化される。
プロンプト・チューニングは、大規模なモデルを効率的に適応させることが重要な場面で応用できる。具体的な例を2つ紹介しよう:
プロンプト・チューニングを類似のテクニックと区別することは重要だ:
要約すると、プロンプト・チューニングは、次のような大規模な事前学習済みモデルを特殊化するための強力で効率的な方法を提供します。 Ultralytics YOLO(関連するマルチモーダル文脈に適用した場合)やLLMのような大規模な事前学習済みモデルを、性能と計算可能性のバランスを取りながら、多様なタスクに特化させるための強力で効率的な手法を提供する。これは、強力なAIモデルをより適応しやすく、利用しやすくするための重要な進歩です。