Prompt Tuningで大規模な言語モデルを効率的に最適化 - コストを削減し、リソースを節約し、タスク固有の適応性を簡単に実現します。
プロンプトチューニングは、大規模言語モデル(LLM)のような大規模な事前学習済みモデルを、元のモデルの重みを変更することなく新しいタスクに適応させるための強力かつ効率的な手法である。これはPEFT(Parameter-Efficient Fine-Tuning)の一種であり、ベースモデルの何十億ものパラメータを凍結したまま、代わりにタスク固有の "ソフトプロンプト "の小さなセットを学習する。これらのソフトプロンプトは、人間が読めるテキストではなく、入力の前に付加される学習可能な埋め込みであり、凍結されたモデルが特定の下流タスクに対して望ましい出力を生成するように導く。このアプローチにより、タスク固有の適応に必要な計算コストとストレージが劇的に削減される。
核となるアイデアは、何十億ものパラメータを持つ可能性のあるモデル全体を再トレーニングまたは微調整するのではなく、タスクごとに数千または数百万の追加パラメータ(ソフトプロンプト)のみをトレーニングすることである。これにより、モデルの完全なコピーを作成することなく、1つの事前学習済みモデルに対して、それぞれ異なるタスクに特化した多数の「プロンプトモジュール」を作成することが可能になる。この方法はまた、モデルが新しいタスクで訓練されたときに以前に学習した情報を忘れてしまう、壊滅的な忘却を軽減するのにも役立つ。
プロンプト・チューニングは、幅広い特殊な用途に対応する強力な基礎モデルのカスタマイズを可能にします。
プロンプト・チューニングを類似のテクニックと区別することは重要だ:
プロンプト・チューニングは主に自然言語処理(NLP)のLLMに適用されているが、効率的な適応の中核原理は人工知能(AI)全体に関連している。コンピュータビジョン(CV)では、カスタムデータセット上のUltralytics YOLOのようなモデルの完全なファインチューニングは、物体検出のようなタスクでは一般的ですが、PEFT法は、特に大規模なマルチモーダルモデルで人気を集めています。Ultralytics HUBのようなプラットフォームは、様々なAIモデルのトレーニングとデプロイのプロセスを合理化し、将来的にこのような効率的な手法を取り入れる可能性があります。