Glossaire

Prompt Tuning

Optimise efficacement les modèles linguistiques de grande taille grâce à Prompt Tuning : réduis les coûts, économise les ressources et obtiens une adaptabilité spécifique à la tâche sans effort.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Le réglage des messages-guides est une technique rationalisée et efficace qui permet d'adapter de grands modèles pré-entraînés, en particulier les grands modèles de langage (LLM), à des tâches spécifiques en aval sans mettre à jour l'ensemble du modèle. Au lieu de modifier des milliards de paramètres, le réglage des invites se concentre sur l'apprentissage d'un petit ensemble de paramètres d'invites spécifiques à la tâche, souvent appelés "invites douces", qui sont ajoutés à l'entrée. Cette approche réduit considérablement les coûts de calcul et les besoins en mémoire, ce qui permet d'adapter des modèles massifs comme GPT-3 ou GPT-4 à des applications spécialisées avec des ressources limitées.

Concept et pertinence

L'idée centrale du Prompt Tuning est de conserver les vastes connaissances intégrées dans un modèle pré-entraîné figé et de guider son comportement à l'aide de vecteurs d'incitation appris. Ces invites douces sont des représentations vectorielles continues optimisées par rétropropagation, qui orientent efficacement le modèle vers la sortie souhaitée pour une tâche spécifique. Contrairement à l'ingénierie traditionnelle des messages-guides, où les messages-guides sont des textes rédigés manuellement, ces messages-guides souples sont des paramètres appris.

Le Prompt Tuning est très pertinent car il offre une forme de Parameter-Efficient Fine-Tuning (PEFT), réduisant drastiquement le nombre de paramètres qui doivent être formés et stockés pour chaque tâche. Pour un modèle comportant des milliards de paramètres, le réglage rapide peut ne nécessiter que l'optimisation de quelques milliers ou millions de paramètres, comme le montre en détail une recherche telle que"The Power of Scale for Parameter-Efficient Prompt Tuning"(La puissance de l'échelle pour le réglage rapide efficace des paramètres). Cette efficacité facilite le déploiement de plusieurs versions personnalisées d'un grand modèle sans frais de stockage ou de calcul prohibitifs, démocratisant ainsi l'utilisation de puissants modèles de base.

Applications de l'accord rapide

Prompt Tuning trouve des applications là où l'adaptation efficace de grands modèles est cruciale. Voici deux exemples concrets :

  1. Génération de textes personnalisés : Une entreprise souhaite utiliser un LLM général comme le T5 deGoogle pour générer un texte de marketing dans la voix spécifique de sa marque. Au lieu d'affiner complètement le modèle, elle peut utiliser le réglage des messages-guides. En formant des invites douces sur des exemples du style de texte souhaité, elle peut guider le LLM figé pour qu'il produise des sorties qui correspondent à l'identité de sa marque, ce qui permet de générer efficacement un texte spécifique à la tâche. Des plateformes comme Ultralytics HUB facilitent la gestion de ces modèles adaptés.
  2. Analyse de sentiments spécifique à un domaine : Un prestataire de soins de santé a besoin d'analyser les commentaires des patients pour trouver des nuances de sentiments spécifiques liées aux soins médicaux. Un modèle général d'analyse des sentiments pourrait ne pas comprendre les spécificités du domaine. En utilisant le réglage des invites, ils peuvent adapter un modèle de langage pré-entraîné en apprenant des invites optimisées sur les données de retour d'information liées aux soins de santé. Cela permet au modèle de mieux comprendre et de classer les sentiments dans ce contexte spécifique sans avoir à réapprendre le modèle de base entier, ce qui peut améliorer la précision.

Tuning de l'invite et concepts connexes

Il est important de distinguer le Prompt Tuning des techniques similaires :

  • Mise au point : Le réglage fin implique généralement la mise à jour de la totalité ou d'une partie importante des poids du modèle pré-entraîné sur un ensemble de données spécifique à une tâche. Cette opération est coûteuse en termes de calcul et nécessite de stocker une copie complète des poids adaptés pour chaque tâche. L'ajustement de l'invite ne met à jour qu'un petit ensemble de paramètres de l'invite, en gardant les poids du modèle original gelés, ce qui rend cette méthode beaucoup plus efficace en termes de ressources. Tu peux explorer les conseils de formation de modèles pour obtenir des conseils généraux applicables à la mise au point.
  • Ingénierie des messages-guides : L'ingénierie des invites consiste à concevoir manuellement des invites textuelles discrètes pour obtenir le comportement souhaité d'un LLM, souvent par essais et erreurs ou par des techniques telles que l 'incitation à la réflexion en chaîne. Prompt Tuning, à l'inverse, apprend automatiquement à intégrer des messages-guides continus par le biais de l'optimisation.
  • Enrichissement des messages-guides : L'enrichissement des invites se concentre sur l'ajout manuel de contexte, d'instructions ou d'exemples à une invite pour améliorer la clarté et guider l'IA. Il s'agit d'une technique d'amélioration manuelle, alors que le réglage des invites est un processus d'apprentissage automatisé des paramètres des invites.
  • LoRA (Low-Rank Adaptation) : LoRA est une autre méthode PEFT qui injecte des matrices de faible rang entraînables dans les couches du modèle, adaptant les poids indirectement mais plus largement que l'adaptation rapide, qui ne modifie généralement que la couche d'entrée ou les mécanismes d'attention par le biais d'invites douces. Ces deux méthodes sont plus efficaces qu'un réglage fin complet. Tu peux en savoir plus sur les méthodes PEFT en consultant des ressources telles que la documentation de la bibliothèqueHugging Face PEFT.

En résumé, Prompt Tuning offre une méthode puissante et efficace pour spécialiser de grands modèles pré-entraînés tels que Ultralytics YOLO (lorsqu'ils sont appliqués dans des contextes multimodaux pertinents) ou les LLM pour diverses tâches, en équilibrant la performance et la faisabilité informatique. Il s'agit d'une avancée majeure pour rendre les puissants modèles d'intelligence artificielle plus adaptables et accessibles.

Tout lire