Glossaire

LoRA (Low-Rank Adaptation)

Découvre comment LoRA affine efficacement les grands modèles d'IA comme YOLO , en réduisant les coûts et en permettant un déploiement en périphérie avec un minimum de ressources.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

LoRA (Low-Rank Adaptation) est une technique efficace utilisée pour adapter de grands modèles d'apprentissage machine (ML) pré-entraînés, tels que ceux utilisés pour le traitement du langage naturel (NLP) ou la vision par ordinateur (CV), à des tâches ou des ensembles de données spécifiques sans réentraîner l'ensemble du modèle. Il réduit considérablement le coût de calcul et les besoins en mémoire associés au réglage fin de modèles massifs, ce qui rend l'IA avancée plus accessible. LoRA s'inscrit dans le cadre des méthodes de réglage fin efficace des paramètres (PEFT).

Comment fonctionne la LoRA

Le réglage fin traditionnel consiste à mettre à jour tous les paramètres (ou poids du modèle) d'un modèle pré-entraîné à l'aide de nouvelles données. Pour les modèles comportant des milliards de paramètres, ce processus nécessite d'importantes ressources informatiques, en particulier des processeurs GPU et du temps. LoRA part du principe que les changements nécessaires à l'adaptation d'un modèle résident souvent dans un espace de dimension inférieure.

Au lieu de modifier tous les poids d'origine, LoRA les fige et injecte des matrices plus petites, de "faible rang", susceptibles d'être entraînées, dans des couches spécifiques de l'architecture du modèle, souvent au sein des blocs Transformer. Seules ces matrices nouvellement ajoutées (adaptateurs) sont mises à jour au cours du processus de réglage fin. Cela permet de réduire considérablement le nombre de paramètres entraînables, souvent de plusieurs ordres de grandeur, tout en obtenant des performances comparables à celles d'un réglage fin complet dans de nombreux cas. Le document de recherche LoRA original fournit des détails techniques supplémentaires sur la méthodologie.

Pertinence et avantages

Le principal avantage de la LoRA est son efficacité :

  • Coût de calcul réduit : L'entraînement nécessite beaucoup moins de mémoire et de temps de la part GPU par rapport à un réglage fin complet.
  • Encombrement réduit : Au lieu d'enregistrer un modèle complet affiné pour chaque tâche, seuls les petits poids de l'adaptateur LoRA doivent être stockés. C'est très avantageux lorsqu'il s'agit de gérer plusieurs modèles personnalisés.
  • Changement de tâche plus rapide : l'adaptation du modèle de base à différentes tâches peut se faire rapidement en échangeant simplement les poids correspondants de l'adaptateur LoRA.
  • Accessibilité : Permet d'affiner les grands modèles sur du matériel de qualité grand public ou dans des environnements à ressources limitées comme les appareils informatiques périphériques.
  • Performances comparables : Permet souvent d'atteindre des niveaux de précision proches de ceux obtenus en affinant complètement le modèle.

Applications de LoRA

L'efficacité de LoRA la rend précieuse dans divers domaines :

  • Personnaliser les grands modèles de langage (LLM) : Adapter les LLM fondamentaux tels que GPT-4 ou des alternatives open-source pour des tâches spécialisées telles que la génération de texte dans un style spécifique, la création de chatbots spécifiques à un domaine ou l'amélioration des performances sur des ensembles de données de réponse à des questions de niche. Par exemple, une entreprise pourrait utiliser LoRA pour affiner un chatbot de service client général afin qu'il comprenne le jargon spécifique à un secteur et fournisse des réponses plus pertinentes sans avoir à recycler l'ensemble du LLM de base. La bibliothèque PEFT deHugging Face propose des outils pour mettre en œuvre LoRA et d'autres techniques similaires.
  • Adaptation des modèles de vision : Ajuster efficacement les grands modèles de vision par ordinateur, notamment Ultralytics YOLO pour des tâches spécifiques de détection d'objets ou de segmentation d'images. Par exemple, adapter un modèle pré-entraîné sur un vaste ensemble de données comme COCO pour détecter avec précision des défauts uniques dans un processus de contrôle de la qualité de fabrication, ou identifier des espèces animales spécifiques dans les efforts de conservation de la faune à l'aide d'images de pièges photographiques.
  • IA personnalisée : créer des expériences utilisateur personnalisées en adaptant les modèles aux préférences ou aux données individuelles avec un minimum de frais généraux.
  • Analyse d'images médicales : Affiner les modèles pour des tâches de diagnostic spécialisées basées sur des scans médicaux, en s'adaptant à des modalités d'imagerie ou à des populations de patients spécifiques. Des plateformes comme Ultralytics HUB peuvent aider à gérer les modèles adaptés à l'aide de techniques comme LoRA pour divers scénarios de déploiement.
Tout lire