Glossaire

Prompt Tuning

Découvre comment le réglage rapide améliore l'efficacité de l'IA en optimisant les modèles pré-entraînés pour des tâches spécifiques avec un minimum de ressources.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Le réglage des invites est une technique utilisée pour adapter et optimiser les modèles pré-entraînés pour des tâches spécifiques en ne réglant qu'un petit ensemble de paramètres, souvent associés à des invites spécifiques à la tâche. Cette approche permet de réduire les coûts de calcul et les besoins de stockage par rapport aux méthodes traditionnelles de réglage fin, où l'ensemble du modèle est réentraîné. Le réglage des invites est particulièrement efficace dans des domaines tels que le traitement du langage naturel (NLP) et la vision par ordinateur (CV), permettant aux utilisateurs d'exploiter la puissance de grands modèles pré-entraînés pour diverses applications.

Comment fonctionne le Prompt Tuning

Le réglage des messages-guides modifie les messages-guides d'entrée ou les enregistrements introduits dans un modèle pré-entraîné, plutôt que de modifier l'architecture de base ou les poids du modèle. En ajoutant aux données d'entrée des informations ou des paramètres spécifiques à la tâche, le modèle peut être guidé pour adapter ses prédictions à une nouvelle tâche. Cette méthode est particulièrement utile lorsqu'on travaille avec des modèles à grande échelle comme GPT-4 ou Vision Transformers (ViT), pour lesquels le réentraînement de l'ensemble du réseau serait coûteux en termes de calcul.

Exemple : Réglage fin ou réglage rapide

  • Ajustement fin: Ajuste tous les poids du modèle pour une tâche spécifique, ce qui nécessite des ressources informatiques et un stockage importants.
  • Optimisation des messages-guides: Optimise les messages-guides spécifiques à une tâche, tout en laissant le modèle principal inchangé, ce qui est beaucoup plus efficace.

Pour approfondir les techniques connexes, explore le Parameter-Efficient Fine-Tuning (PEFT), qui partage des similitudes avec le prompt tuning mais inclut des stratégies plus larges comme les adaptateurs et les adaptations de faible rang.

Avantages de la mise au point rapide

  • Efficacité: Nécessite moins de ressources par rapport à la mise au point complète du modèle.
  • Évolutivité: Permet d'utiliser des modèles pré-entraînés pour plusieurs nouvelles tâches sans dupliquer l'ensemble du modèle.
  • Flexibilité: S'intègre facilement aux modèles multimodaux, tels que ceux qui combinent des données textuelles et des données d'image (par exemple, CLIP).
  • Surajustement réduit: Limite le risque de surajustement en ne réglant finement qu'un petit sous-ensemble de paramètres.

Applications dans le monde réel

Le Prompt tuning a été appliqué avec succès dans divers secteurs d'activité pour résoudre des problèmes spécifiques à un domaine. Voici deux exemples notables :

1. Analyse des sentiments dans les commentaires des clients

En affinant les grands modèles de langage comme GPT avec des invites spécifiques à une tâche, les entreprises peuvent analyser le sentiment des clients à partir d'avis ou de posts sur les médias sociaux. Par exemple, un modèle pourrait être invité à classer les commentaires comme positifs, neutres ou négatifs, ce qui améliorerait les flux de travail du service clientèle.

2. Segmentation d'images dans le domaine de la santé

Dans le domaine de l'imagerie médicale, l'ajustement des invites peut aider à adapter des modèles pré-entraînés tels que Segment Anything Model (SAM ) à des tâches spécifiques telles que la détection de tumeurs ou la segmentation d'organes. En personnalisant uniquement les invites spécifiques à une tâche, les prestataires de soins de santé peuvent obtenir des résultats précis sans avoir à réentraîner l'ensemble du modèle.

Tuning de l'invite et concepts connexes

Bien que le réglage rapide présente des similitudes avec d'autres méthodes telles que le réglage fin et l'apprentissage à partir d'un point zéro, il offre des avantages uniques :

  • Mise au point: Nécessite plus de ressources et modifie l'ensemble du modèle.
  • Apprentissage à partir de zéro: Utilise des modèles pré-entraînés sans adaptation, tandis que le réglage rapide offre un moyen terme en permettant une adaptation minimale mais efficace.
  • Ingénierie des messages-guides: Se concentre sur la conception d'invites textuelles ou de saisie, tandis que le réglage des invites implique l'optimisation des enchâssements ou des paramètres spécifiquement pour les tâches.

Outils et cadres de travail

Plusieurs cadres prennent en charge le réglage rapide pour les tâches NLP et CV, ce qui le rend accessible aux chercheurs et aux développeurs :

  • Hugging Face: Propose des outils pour intégrer le réglage rapide aux modèles basés sur les transformateurs.
  • Ultralytics HUB: Simplifie la formation et le déploiement des modèles, en permettant d'adapter les modèles préformés tels que Ultralytics YOLO pour de nouvelles tâches.
  • API OpenAI: Permet une optimisation rapide pour les modèles linguistiques de pointe comme le GPT-4.

Orientations futures

L'adaptation rapide est sur le point de devenir de plus en plus pertinente à mesure que les modèles deviennent plus grands et plus complexes. Avec l'essor de l'apprentissage multimodal et des modèles de fondation, le prompt tuning offre une solution évolutive pour l'adaptation à des tâches spécifiques. Il s'aligne également sur la tendance du secteur à rendre l'IA plus accessible et plus efficace, en particulier pour les applications du monde réel dans des domaines tels que les soins de santé et la fabrication.

Pour une exploration approfondie des concepts et des applications connexes, visite le glossaire de l'IA et de la vision par ordinateur.

Tout lire