用語集

プロンプト・チューニング

Prompt Tuningで大規模な言語モデルを効率的に最適化 - コストを削減し、リソースを節約し、タスク固有の適応性を簡単に実現します。

Ultralytics HUB で
を使ってYOLO モデルをシンプルにトレーニングする。

さらに詳しく

プロンプトチューニングは、大規模な事前学習済みモデル、特に大規模言語モデル(LLM)を、元のモデルのパラメータを変更することなく、特定の下流タスクに適応させるために使用される効率的な手法である。プロンプトチューニングは、モデル全体、あるいはモデルの大部分を再トレーニングする代わりに、入力テキストの前に付加される、タスクに特化した小さな「ソフトプロンプト」(連続ベクトル埋め込み)を学習することに重点を置く。このアプローチは、従来のファインチューニングと比較して、適応に必要な計算リソースとデータを大幅に削減する。

プロンプト・チューニングの仕組み

プロンプト・チューニングでは、中核となるアイデアは、事前に訓練されたモデルのパラメータの大部分を凍結したままにすることである。センチメント分析やテキスト生成のようなタスクにモデルを適応させる場合、数十億の重みとバイアスを調整する代わりに weights and biasesモデル内の何十億もの重みとバイアスを調整する代わりに、プロンプトパラメータの小さなセット(ソフトプロンプト埋め込み)のみを勾配降下法を用いて学習する。これらの学習されたエンベッディングは、指示やコンテキストとして機能し、特定のタスクに対して望ましい出力を生成するようにフローズンモデルを導く。これにより、パラメータ効率的微調整(PEFT)の一形態となり、大規模な基礎モデルを専門化する障壁を劇的に下げる。

プロンプト・チューニングのメリット

プロンプト・チューニングにはいくつかの利点がある:

  • 計算効率: トレーニング中に更新されるパラメータはごく一部であるため、完全なファインチューニングに比べて計算量とメモリが大幅に少なくて済む。
  • ストレージの削減:微調整されたモデルの完全なコピーではなく、タスクごとにプロンプトの埋め込みの小さなセットのみを保存する必要があります。
  • より速い適応:タスクに特化したプロンプトのトレーニングは、モデル全体を微調整するよりもはるかに迅速です。
  • 破局的忘却の軽減:元のモデルのパラメータは変更されないため、モデルは事前学習時に学習した一般的な能力を維持し、あるタスクで微調整を行うと他のタスクのパフォーマンスが低下するという問題(壊滅的干渉)を回避することができる。
  • デプロイの簡素化:複数のタスク固有のプロンプトを単一の共有コアモデルで使用できるため、MLOpsパイプラインにおける モデルの展開と管理が簡素化されます。

実世界での応用

プロンプト・チューニングは、特殊なアプリケーション用に大規模な言語モデルをカスタマイズする場合に特に効果的です:

  1. カスタマイズされたカスタマーサービスチャットボット:企業は、GPT-4のような一般的な事前学習済みのLLMを使用し、プロンプト・チューニングを使用して、さまざまなサポート分野(請求、技術サポート、製品に関する問い合わせなど)に特化したプロンプトを作成できます。各プロンプトは、企業固有の言語と知識を使用して、その特定のコンテキスト内で適切に応答するようにベースモデルをガイドします。これにより、チャットボット機能の効率的な拡張が可能になります。
  2. 特化したコンテンツ生成:マーケティングエージェンシーは、特定のブランドボイスやスタイル(例えば、フォーマルなレポート、カジュアルなブログ記事、キャッチーな広告コピー)のコンテンツを作成するために、大規模なテキスト生成モデルを適応させるためにプロンプトチューニングを使用することができます。OpenAIや Google AIのような組織から提供された同じ強力なベースモデルが、異なるクライアントのニーズにわたって汎用性を持つことを可能にします。

プロンプト・チューニングと関連コンセプトの比較

プロンプト・チューニングを類似のテクニックと区別することは重要だ:

  • 微調整:新しいデータセット上で、事前に訓練されたモデルのパラメータの大部分、あるいは全てを更新する。計算量は多いが、モデルの内部表現を深く適応させることで、より高いパフォーマンスを達成できる場合がある。モデルトレーニングのヒントは、微調整の側面をカバーしていることが多い。
  • プロンプトエンジニアリング:凍結された事前学習済みモデルから望ましい動作を引き出すために、効果的なテキストベースのプロンプト(ハードプロンプト)を手動で設計することに重点を置く。プロンプトエンジニアリングは、入力テキスト自体の中に指示や例を作成することを含み、新しいパラメータをトレーニングすることはない。思考連鎖プロンプトのようなテクニックはこのカテゴリーに属する。
  • プロンプト・エンリッチメント:AIモデルによって処理される前に、文脈や関連情報を追加する(例:RAG(Retrieval-Augmented Generation)を使用する)ことで、ユーザーの入力プロンプトを自動的に強化する。プロンプトチューニングとは異なり、モデルや学習パラメータを変更するのではなく、入力クエリを改良します。
  • LoRA(ローランク・アダプテーション):もう1つのPEFT技法で、学習済みのモデルの既存の層(注意メカニズムなど)に、学習可能な小さな低ランク行列を注入する。入力埋め込みのみに注目するプロンプトチューニングと比較して、モデルの異なる部分を更新する。どちらもHugging Face PEFTライブラリのようなライブラリによく見られます。

プロンプト・チューニングは主に自然言語処理(NLP)のLLMに適用されるが、効率的な適応の中核原理は人工知能(AI)全体に関連する。コンピュータビジョン(CV)では、以下のようなモデルの完全な微調整が可能である。 Ultralytics YOLOのようなモデルの完全な微調整は、物体検出のようなタスクでは一般的ですが、PEFT法は、特に大規模なマルチモーダルモデルで人気を集めています。Ultralytics HUBのようなプラットフォームは、様々なAIモデルのトレーニングとデプロイのプロセスを合理化し、将来的にこのような効率的な手法を取り入れる可能性があります。

要約すると、プロンプト・チューニングは、LLMのような大規模な事前学習済みモデルを多様なタスクに特化させるための強力かつ効率的な手法を提供し、性能と計算可能性のバランスをとる。これは、強力なAIモデルをより適応しやすく、利用しやすくするための重要な進歩である。

すべて読む