Le réglage fin est une technique populaire de l'apprentissage machine (ML) qui consiste à prendre un modèle déjà formé sur un grand ensemble de données (un modèle préformé) et à le former davantage sur un ensemble de données plus petit et spécifique, pertinent pour une tâche particulière. Cette approche tire parti des connaissances générales apprises par le modèle au cours de sa formation initiale, en l'adaptant pour qu'il excelle dans un domaine plus spécialisé sans qu'il soit nécessaire de former un modèle à partir de zéro, ce qui permet d'économiser un temps et des ressources informatiques considérables. C'est une pratique courante dans des domaines tels que la vision artificielle (CV) et le traitement du langage naturel (NLP).
Ajustement et concepts apparentés
Il est important de faire la distinction entre le réglage fin et les concepts similaires de ML :
- Apprentissage par transfert: Le réglage fin est une méthode spécifique dans la catégorie plus large de l'apprentissage par transfert. L'apprentissage par transfert englobe toute technique dans laquelle un modèle développé pour une tâche est réutilisé comme point de départ d'un modèle pour une deuxième tâche. Alors que le réglage fin ajuste les poids du modèle pré-entraîné, d'autres approches d'apprentissage par transfert peuvent utiliser le modèle pré-entraîné uniquement comme un extracteur de caractéristiques fixes.
- Formation à partir de zéro : Il s'agit d'initialiser les poids d'un modèle de façon aléatoire et de l'entraîner uniquement sur l'ensemble de données cible. Cette méthode nécessite beaucoup plus de données et de puissance de calcul que le réglage fin et n'est souvent pas aussi performante sur les petits ensembles de données, car elle ne dispose pas de la base de connaissances générales d'un modèle pré-entraîné. Tu trouveras des conseils sur l'entraînement des modèles dans notre documentation.
- Réglage des hyperparamètres: Ce processus se concentre sur la recherche des paramètres de configuration optimaux (hyperparamètres comme le taux d'apprentissage, la taille du lot, le choix de l'optimiseur) avant le début du processus de formation. Le réglage fin, à l'inverse, fait partie du processus de formation lui-même, en ajustant les paramètres internes du modèle (poids) en fonction des nouvelles données. Des outils comme Ultralytics Tuner automatisent l'optimisation des hyperparamètres.
Pourquoi utiliser le réglage fin ?
Le réglage fin offre plusieurs avantages :
- Temps de formation réduit : Exploite les connaissances existantes, ce qui nécessite moins d'époques de formation.
- Exigences moindres en matière de données : Efficace même avec des ensembles de données plus petits et spécifiques à une tâche, car le modèle n'apprend pas tout à partir de zéro.
- Amélioration des performances : Permet souvent d'obtenir une plus grande précision sur des tâches spécialisées par rapport aux modèles formés à partir de zéro sur des données limitées.
- Accès à des architectures de pointe : Permet aux utilisateurs d'utiliser des modèles puissants et complexes comme les Transformers ou les CNN avancés sans avoir besoin des ressources massives requises pour le pré-entraînement initial.
Applications dans le monde réel
Le réglage fin est largement utilisé dans divers domaines :
- Détection d'objets spécialisés : Un modèleYOLO d'Ultralytics pré-entraîné pour la détection d'objets généraux peut être affiné à l'aide d'un ensemble de données personnalisé de pièces industrielles spécifiques afin de créer un système de détection de défauts très performant pour l'IA dans le secteur de la fabrication. De même, il peut être affiné pour l'analyse d'images médicales afin de détecter des conditions spécifiques comme les tumeurs cérébrales. Ultralytics HUB fournit une plateforme pour gérer les ensembles de données et rationaliser ce processus d'entraînement personnalisé.
- Tâches linguistiques personnalisées : Un grand modèle de langage comme GPT-3, pré-entraîné par OpenAI sur divers textes Internet, peut être affiné sur un ensemble de données de documents juridiques pour améliorer ses performances en matière de résumé de texte juridique ou sur des transcriptions de service client pour des réponses de chatbot spécialisées. Un autre exemple consiste à affiner les modèles BERT pour des tâches spécifiques d'analyse de sentiments sur des critiques de produits ou des posts de médias sociaux, comme le détaillent des ressources telles que le Google AI Blog.
Affiner les modèlesYOLO d'Ultralytics
Ultralytics fournit une assistance solide pour affiner ses modèles YOLO . Les utilisateurs peuvent facilement charger des poids pré-entraînés (par exemple, à partir de modèles entraînés sur ImageNet ou COCO) et poursuivre l'entraînement sur leurs propres ensembles de données pour des tâches telles que la détection, la segmentation ou la classification. La documentation d'Ultralytics propose des guides détaillés sur le processus de formation, permettant aux utilisateurs d'adapter des modèles de pointe tels que YOLO11 à leurs défis spécifiques en matière de vision par ordinateur. Cette adaptabilité est essentielle pour obtenir des performances optimales dans diverses applications, de l'IA dans l'agriculture à la robotique. De plus amples informations sur les techniques d'apprentissage par transfert sont disponibles sur des plateformes éducatives telles que Coursera.
Comment fonctionne le réglage fin
Le processus commence généralement par la sélection d'un modèle pré-entraîné, tel qu'un modèle d' Ultralytics YOLO d'Ultralytics, formé sur un vaste ensemble de données comme COCO. Ces modèles ont déjà appris à reconnaître des caractéristiques générales à partir de leurs données de formation initiales. Lors du réglage fin, les poids du modèle sont ajustés en fonction du nouvel ensemble de données plus restreint. Souvent, les couches initiales du réseau (qui apprennent les caractéristiques générales) restent "gelées" (leurs poids ne sont pas mis à jour), tandis que les couches ultérieures, plus spécifiques à une tâche, sont réentraînées. Ce réentraînement implique généralement l'utilisation d'un taux d'apprentissage plus faible que celui utilisé lors de l'entraînement initial afin de procéder à des ajustements plus petits des poids, préservant ainsi les connaissances acquises précédemment tout en s'adaptant aux nuances de la nouvelle tâche.