Glossaire

Réglage fin efficace des paramètres (PEFT)

Découvre le Parameter-Efficient Fine-Tuning (PEFT) : adapte efficacement les grands modèles d'IA avec un minimum de ressources. Optimise les tâches en NLP, vision, et plus encore !

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Le réglage fin efficace des paramètres (PEFT) est une approche d'apprentissage automatique conçue pour adapter de grands modèles pré-entraînés à de nouvelles tâches avec une surcharge de calcul minimale. En affinant seulement un petit sous-ensemble de paramètres, les techniques PEFT rendent le processus d'affinage plus efficace, en réduisant les besoins en ressources et en conservant les connaissances générales encodées dans le modèle pré-entraîné.

Importance du PEFT

Le réglage fin traditionnel implique la mise à jour de tous les paramètres d'un modèle, ce qui peut être coûteux en calcul et en mémoire, en particulier pour les grands modèles tels que les architectures à base de transformateurs. PEFT résout ce problème en ne modifiant qu'une fraction des paramètres tout en gardant la majorité du modèle pré-entraîné inchangée. Cette approche est particulièrement avantageuse lorsque les ressources informatiques sont limitées ou lorsqu'il s'agit de tâches multiples qui nécessitent une personnalisation sans entraîner à nouveau l'ensemble du modèle à chaque fois.

Les techniques PEFT s'alignent sur la demande croissante de solutions efficaces en termes de ressources dans le domaine de l'IA, permettant l'application pratique de grands modèles dans divers secteurs, tels que la santé, l'agriculture et la vente au détail.

Techniques clés du PEFT

Plusieurs approches ont été développées pour un réglage fin efficace des paramètres :

  • Adaptation à faible rang (LoRA): LoRA injecte dans le modèle des mises à jour de faible rang spécifiques à la tâche, en optimisant uniquement ces paramètres supplémentaires pour s'adapter aux nouvelles tâches.
  • Couches d'adaptation : Il s'agit de petits modules de réseaux neuronaux insérés dans l'architecture du modèle, généralement entre les couches, pour apprendre des ajustements spécifiques à une tâche.
  • Réglage des invites : Cette méthode consiste à ajuster uniquement les invites d'entrée transmises au modèle, en laissant les paramètres du modèle inchangés. En savoir plus sur le réglage des invites.
  • Réglage du préfixe : Semblable au réglage de l'invite, le réglage du préfixe optimise une séquence de paramètres spécifiques à la tâche qui agissent comme un préfixe aux données d'entrée.

Chaque méthode vise à réduire le temps de formation et l'utilisation des ressources tout en maintenant de bonnes performances sur les tâches en aval.

Applications de PEFT

PEFT a trouvé des applications dans un large éventail de domaines de l'IA et de l'apprentissage automatique, en particulier lorsque les contraintes de ressources ou la diversité des tâches sont des considérations clés.

Exemple 1 : Traitement du langage naturel (NLP)

Dans le domaine du NLP, les techniques PEFT sont largement utilisées pour adapter de grands modèles de langage tels que GPT-3 ou GPT-4 à des tâches spécifiques, telles que l'analyse des sentiments, le résumé ou la réponse à des questions spécifiques à un domaine. Par exemple, LoRA peut être appliqué pour affiner GPT-3 pour l'analyse de textes médicaux, permettant des prédictions précises tout en minimisant les besoins informatiques.

Exemple 2 : Vision AI

Dans le domaine de la vision par ordinateur, le PEFT est utilisé pour affiner les modèles pré-entraînés tels que Ultralytics YOLO pour des tâches spécifiques, telles que la détection d'objets rares dans des ensembles de données spécialisés. En affinant seulement une petite partie des poids du modèle, les organisations peuvent rapidement déployer des solutions sur mesure pour des tâches telles que la surveillance de la faune et de la flore ou le contrôle de la qualité industrielle, sans avoir à procéder à un réentraînement approfondi.

Avantages du PEFT

  1. Efficacité des ressources: Réduit les exigences en matière de calcul et de mémoire, ce qui le rend accessible pour un déploiement sur des appareils périphériques ou dans des environnements aux ressources limitées.
  2. Flexibilité des tâches: Facilite l'adaptation rapide à de multiples tâches en aval sans réentraîner le modèle entier, ce qui est particulièrement utile pour les industries comme les soins de santé et la fabrication.
  3. Rentabilité: Réduit le coût de la mise au point de grands modèles en se concentrant sur un petit sous-ensemble de paramètres.
  4. Préservation des connaissances générales: Conserve les capacités générales du modèle pré-entraîné tout en ajoutant une expertise spécifique à la tâche.

Différences par rapport à la mise au point traditionnelle

Lors d'un réglage fin traditionnel, l'ensemble du modèle est mis à jour, ce qui peut s'avérer coûteux en termes de calcul et susceptible d'entraîner un surajustement, en particulier avec de petits ensembles de données. PEFT, quant à lui, se concentre sur l'optimisation d'un nombre minimal de paramètres, ce qui permet d'obtenir des résultats comparables avec une surcharge de calcul considérablement réduite.

Le PEFT diffère également de l'apprentissage par transfert, où un modèle pré-entraîné est adapté à une nouvelle tâche en réentraînant certaines ou toutes les couches. Alors que l'apprentissage par transfert peut impliquer un recyclage complet du modèle, le PEFT est explicitement conçu pour minimiser les mises à jour des paramètres.

Impacts dans le monde réel

L'adoption de PEFT a permis la prolifération de solutions d'IA dans des contextes où les ressources sont limitées. Par exemple, dans l'agriculture, PEFT peut affiner les modèles de vision pour détecter les maladies des cultures avec précision tout en fonctionnant sur des appareils de faible puissance. De même, dans le domaine de la santé, le PEFT facilite l'adaptation des modèles pour des tâches telles que la détection de tumeurs à l'aide d'ensembles de données spécialisés, comme le soulignent les solutions de santé sur le siteUltralytics .

PEFT est également intégré à des outils tels que Ultralytics HUB, qui simplifie la formation et le déploiement de modèles personnalisés, en veillant à ce que les utilisateurs puissent adapter efficacement les modèles préformés à leurs besoins uniques.

Conclusion

Le Parameter-Efficient Fine-Tuning (PEFT) représente une avancée significative pour rendre l'IA plus accessible et adaptable. En permettant l'adaptation efficace de grands modèles à de nouvelles tâches, PEFT donne aux industries les moyens d'exploiter tout le potentiel de l'IA tout en réduisant les coûts et les demandes de calcul. Avec des applications couvrant le NLP, la vision par ordinateur et au-delà, PEFT continue de jouer un rôle central dans l'avancement des technologies de l'IA.

Tout lire