Glossaire

Prompt Tuning

Optimisez efficacement les modèles linguistiques de grande taille avec Prompt Tuning - réduisez les coûts, économisez les ressources et obtenez une adaptabilité spécifique à la tâche sans effort.

Le "Prompt Tuning" est une technique puissante et efficace pour adapter de grands modèles pré-entraînés, tels que les grands modèles de langage (LLM), à de nouvelles tâches sans modifier les poids du modèle d'origine. Il s'agit d'une forme de Parameter-Efficient Fine-Tuning (PEFT) qui maintient gelés les milliards de paramètres du modèle de base et apprend à la place un petit ensemble d'"invites douces" spécifiques à une tâche. Ces invites douces ne sont pas des textes lisibles par l'homme, mais des éléments d'intégration apprenables ajoutés à l'entrée, qui guident le modèle gelé afin qu'il produise la sortie souhaitée pour une tâche spécifique en aval. Cette approche réduit considérablement les coûts de calcul et de stockage nécessaires à l'adaptation à une tâche spécifique, comme l'indique le document de recherche original de Google AI.

L'idée de base est de n'entraîner que quelques milliers ou millions de paramètres supplémentaires (l'invite douce) par tâche, plutôt que de réentraîner ou d'affiner l' ensemble du modèle, qui pourrait comporter des milliards de paramètres. Il est ainsi possible de créer de nombreux "modules d'invite" spécialisés pour un seul modèle pré-entraîné, chacun adapté à une tâche différente, sans créer de copies complètes du modèle. Cette méthode permet également d'atténuer l'oubli catastrophique, c'est-à-dire le fait qu'un modèle oublie les informations apprises précédemment lorsqu'il est entraîné à une nouvelle tâche.

Applications dans le monde réel

Prompt Tuning permet de personnaliser des modèles de fondation puissants pour un large éventail d'applications spécialisées.

  • Analyse personnalisée des sentiments: Une entreprise souhaite analyser les commentaires de ses clients sur ses produits spécifiques. Un modèle d'analyse des sentiments généraliste risque de ne pas comprendre le jargon propre à l'industrie. Grâce au réglage des invites, l'entreprise peut adapter un grand modèle comme BERT en formant un petit ensemble d'invites douces sur ses propres commentaires de clients étiquetés. Le modèle qui en résulte peut classer avec précision les commentaires sans qu'il soit nécessaire de procéder à un apprentissage complet du modèle, ce qui permet d'obtenir des informations plus nuancées.
  • Chatbots médicaux spécialisés: Un organisme de soins de santé souhaite créer un chatbot qui réponde aux questions des patients sur des problèmes médicaux spécifiques. L'entraînement complet d'un grand LLM médical est gourmand en ressources. Au lieu de cela, ils peuvent utiliser l'accord d'invite sur un modèle pré-entraîné comme GPT-4. En entraînant une invite spécifique à une tâche sur un ensemble de données médicales, le chatbot apprend à fournir des réponses précises et contextuelles dans ce domaine, ce qui rend l'IA performante plus accessible dans le secteur de la santé.

Prompt Tuning vs. concepts apparentés

Il est important de distinguer le Prompt Tuning des techniques similaires :

  • Mise au point: Cette méthode met à jour une grande partie, voire la totalité, des paramètres d'un modèle pré-entraîné sur un nouvel ensemble de données. Elle nécessite davantage de calculs, mais permet parfois d'obtenir de meilleures performances en adaptant en profondeur les représentations internes du modèle. Les conseils relatifs à l'entraînement de modèles couvrent souvent certains aspects de la mise au point.
  • Prompt Engineering: Il s'agit de concevoir manuellement des messages-guides textuels efficaces (hard prompts) pour guider un modèle pré-entraîné figé. Il s'agit d'élaborer des instructions et des exemples à partir du texte d'entrée lui-même et n'implique pas l'apprentissage de nouveaux paramètres. Les techniques telles que l 'incitation à la réflexion en chaîne entrent dans cette catégorie.
  • Enrichissement des messages: Cette technique améliore automatiquement l'invite d'un utilisateur en y ajoutant un contexte, par exemple en utilisant la méthode RAG (Retrieval-Augmented Generation), avant qu' elle ne soit envoyée au modèle d'IA. Contrairement à l'ajustement de l'invite, elle affine la requête d'entrée sans former de nouveaux paramètres.
  • LoRA (Low-Rank Adaptation): Une autre technique PEFT qui injecte de petites matrices de faible rang pouvant être entraînées dans les couches existantes (comme le mécanisme d'attention) du modèle pré-entraîné. Elle met à jour différentes parties du modèle par rapport à Prompt Tuning, qui se concentre uniquement sur l'intégration des données d'entrée. Les deux sont souvent présents dans des bibliothèques telles que la bibliothèque Hugging Face PEFT.

Alors que le Prompt Tuning est principalement appliqué aux LLM dans le traitement du langage naturel (NLP), le principe de base de l'adaptation efficace est pertinent dans l'ensemble de l'intelligence artificielle (AI). Dans le domaine de la vision artificielle (CV), alors que l'ajustement complet de modèles comme Ultralytics YOLO sur des ensembles de données personnalisés est courant pour des tâches telles que la détection d'objets, les méthodes PEFT gagnent du terrain, en particulier pour les grands modèles multimodaux. Des plateformes comme Ultralytics HUB rationalisent le processus d'entraînement et de déploiement de divers modèles d'IA, ce qui pourrait permettre d'intégrer ces techniques efficaces à l'avenir.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers