Prompt Tuningで大規模な言語モデルを効率的に最適化 - コストを削減し、リソースを節約し、タスク固有の適応性を簡単に実現します。
プロンプトチューニングは、大規模な事前学習済みモデル、特に大規模言語モデル(LLM)を、元のモデルのパラメータを変更することなく、特定の下流タスクに適応させるために使用される効率的な手法である。プロンプトチューニングは、モデル全体、あるいはモデルの大部分を再トレーニングする代わりに、入力テキストの前に付加される、タスクに特化した小さな「ソフトプロンプト」(連続ベクトル埋め込み)を学習することに重点を置く。このアプローチは、従来のファインチューニングと比較して、適応に必要な計算リソースとデータを大幅に削減する。
プロンプト・チューニングでは、中核となるアイデアは、事前に訓練されたモデルのパラメータの大部分を凍結したままにすることである。センチメント分析やテキスト生成のようなタスクにモデルを適応させる場合、数十億の重みとバイアスを調整する代わりに weights and biasesモデル内の何十億もの重みとバイアスを調整する代わりに、プロンプトパラメータの小さなセット(ソフトプロンプト埋め込み)のみを勾配降下法を用いて学習する。これらの学習されたエンベッディングは、指示やコンテキストとして機能し、特定のタスクに対して望ましい出力を生成するようにフローズンモデルを導く。これにより、パラメータ効率的微調整(PEFT)の一形態となり、大規模な基礎モデルを専門化する障壁を劇的に下げる。
プロンプト・チューニングにはいくつかの利点がある:
プロンプト・チューニングは、特殊なアプリケーション用に大規模な言語モデルをカスタマイズする場合に特に効果的です:
プロンプト・チューニングを類似のテクニックと区別することは重要だ:
プロンプト・チューニングは主に自然言語処理(NLP)のLLMに適用されるが、効率的な適応の中核原理は人工知能(AI)全体に関連する。コンピュータビジョン(CV)では、以下のようなモデルの完全な微調整が可能である。 Ultralytics YOLOのようなモデルの完全な微調整は、物体検出のようなタスクでは一般的ですが、PEFT法は、特に大規模なマルチモーダルモデルで人気を集めています。Ultralytics HUBのようなプラットフォームは、様々なAIモデルのトレーニングとデプロイのプロセスを合理化し、将来的にこのような効率的な手法を取り入れる可能性があります。
要約すると、プロンプト・チューニングは、LLMのような大規模な事前学習済みモデルを多様なタスクに特化させるための強力かつ効率的な手法を提供し、性能と計算可能性のバランスをとる。これは、強力なAIモデルをより適応しやすく、利用しやすくするための重要な進歩である。