Glossaire

Réglage fin efficace des paramètres (PEFT)

Découvre le Parameter-Efficient Fine-Tuning (PEFT) pour adapter les grands modèles d'IA avec un minimum de ressources. Réalise des économies, évite le surajustement et optimise le déploiement !

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Le Parameter-Efficient Fine-Tuning (PEFT) est un ensemble de techniques d'apprentissage automatique conçues pour adapter efficacement des modèles pré-entraînés à des tâches spécifiques en aval, tout en affinant seulement un petit nombre de paramètres du modèle. Cette approche est particulièrement pertinente à l'ère des grands modèles de langage (LLM) et d'autres modèles d'IA à grande échelle, où un réglage fin complet peut être coûteux en calcul et en ressources. Les méthodes PEFT réduisent considérablement les coûts de calcul et de stockage, ce qui permet de personnaliser ces modèles massifs pour un plus grand nombre d'applications et de les déployer dans des environnements où les ressources sont limitées.

Pertinence et applications

L'importance du Parameter-Efficient Fine-Tuning tient à sa capacité à démocratiser l'accès à des modèles puissants et pré-entraînés. Au lieu de former un grand modèle à partir de zéro ou d'affiner tous ses paramètres pour chaque nouvelle tâche, PEFT permet aux développeurs et aux chercheurs d'obtenir des performances comparables en n'ajustant qu'une fraction des paramètres d'origine. Cette efficacité présente plusieurs avantages et applications clés :

  • Réduction des coûts de calcul : La mise au point traditionnelle de grands modèles nécessite des ressources informatiques et un temps considérables. Les techniques PEFT réduisent drastiquement ces exigences, permettant une expérimentation et un déploiement plus rapides, et rendant l'IA plus accessible aux individus et aux organisations disposant de ressources limitées. Ceci est particulièrement bénéfique lors de l'utilisation de plateformes telles que Ultralytics HUB Cloud Training, où une formation efficace se traduit directement par des économies de coûts et des cycles d'itération plus rapides.
  • Exigences de stockage réduites : La mise au point de tous les paramètres d'un grand modèle entraîne la création de plusieurs copies de taille normale pour chaque tâche. Les méthodes PEFT, en ne modifiant qu'un petit sous-ensemble de paramètres, conduisent à des modèles affinés beaucoup plus petits. Ceci est crucial pour le déploiement de modèles sur des appareils périphériques ou dans des scénarios où le stockage est limité.
  • Prévenir le surajustement : Lorsque l'on affine de grands modèles sur de petits ensembles de données, il y a un risque de surajustement, où le modèle apprend à bien fonctionner sur les données d'entraînement mais se généralise mal à de nouvelles données non vues. Les méthodes PEFT peuvent agir comme une forme de régularisation, car elles limitent l'adaptation du modèle, ce qui peut conduire à une meilleure généralisation.

Les applications du PEFT dans le monde réel sont diverses et se développent rapidement. Par exemple, dans le domaine du traitement du langage naturel (NLP), le PEFT est utilisé pour adapter des modèles de base tels que le GPT-3 ou le GPT-4 à des tâches spécifiques telles que l'analyse des sentiments, le résumé de texte ou la réponse à des questions. Dans le domaine de la vision par ordinateur, le PEFT peut être appliqué à des modèles d'images pré-entraînés afin de les spécialiser pour des tâches telles que l'analyse d'images médicales ou la détection d'objets dans des domaines spécifiques, tels que la détection de défauts dans la fabrication ou l'identification d'espèces différentes dans la conservation de la faune.

Concepts clés

PEFT s'appuie sur les principes de l'apprentissage par transfert et du réglage fin. L'apprentissage par transfert consiste à tirer parti des connaissances acquises lors de la résolution d'un problème pour les appliquer à un problème différent mais connexe. Le réglage fin, dans ce contexte, est le processus qui consiste à prendre un modèle pré-entraîné et à l'entraîner davantage sur un nouvel ensemble de données spécifiques à une tâche.

Cependant, le réglage fin traditionnel implique souvent la mise à jour de la totalité ou d'une partie importante des paramètres du modèle pré-entraîné. PEFT se distingue en introduisant des techniques qui ne modifient qu'une petite partie de ces paramètres. Les techniques PEFT les plus courantes sont les suivantes :

  • Modules d'adaptation : Ajout de nouvelles petites couches (adaptateurs) au modèle pré-entraîné et entraînement uniquement de ces couches d'adaptateurs, tout en gardant les poids du modèle original gelés.
  • Réglage des préfixes : Ajout de préfixes entraînables à l'entrée du modèle, qui guident le comportement du modèle pour la nouvelle tâche.
  • Adaptation à faible rang (LoRA) : Décomposition des matrices de poids en matrices de faible rang et formation uniquement de ces matrices plus petites et de faible rang.

Ces méthodes s'opposent au réglage fin complet, qui met à jour tous les paramètres du modèle, et à l'élagage du modèle, qui réduit la taille du modèle en supprimant les connexions les moins importantes. PEFT se concentre sur une adaptation efficace plutôt que sur une réduction de la taille ou un recyclage complet.

En résumé, le Parameter-Efficient Fine-Tuning est une avancée cruciale pour rendre les grands modèles d'intelligence artificielle plus pratiques et accessibles. En réduisant considérablement les frais généraux de calcul et de stockage tout en maintenant des performances élevées, PEFT permet à une communauté plus large de tirer parti de la puissance de l'IA de pointe pour des applications diverses et spécialisées, y compris celles réalisables avec des modèles tels que . Ultralytics YOLO11.

Tout lire