Glossaire

Apprentissage par transfert

Débloque la puissance de l'apprentissage par transfert pour gagner du temps, stimuler les performances de l'IA et s'attaquer à de nouvelles tâches avec des données limitées à l'aide de modèles pré-entraînés.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

L'apprentissage par transfert est une technique puissante d'apprentissage automatique qui permet aux modèles d'appliquer les connaissances acquises lors de la résolution d'un problème à un problème différent mais connexe. Au lieu de former un modèle à partir de zéro à chaque fois, l'apprentissage par transfert exploite des modèles préformés, ce qui permet d'économiser du temps et des ressources, et souvent d'améliorer les performances, en particulier lorsque les données sont limitées pour la nouvelle tâche. Cette approche est largement utilisée dans divers domaines, en particulier dans la vision artificielle et le traitement du langage naturel, pour construire des systèmes d'IA plus efficaces et plus performants.

Comment fonctionne l'apprentissage par transfert

L'idée centrale de l'apprentissage par transfert est d'utiliser les caractéristiques apprises par un modèle sur un grand ensemble de données pour un nouvel ensemble de données, souvent plus petit. Généralement, un modèle est d'abord formé sur un énorme ensemble de données comme ImageNet pour une tâche générale, telle que la classification d'images. Cette phase de pré-entraînement permet au modèle d'apprendre des caractéristiques et des modèles fondamentaux à partir des données. Ensuite, pour une nouvelle tâche connexe, les poids du modèle pré-entraîné sont utilisés comme point de départ. Cette deuxième phase, souvent appelée réglage fin, consiste à entraîner davantage le modèle sur le nouvel ensemble de données spécifique à la tâche. Souvent, seules les dernières couches du modèle sont entraînées à nouveau, tandis que les couches précédentes, qui ont appris des caractéristiques générales, restent figées ou sont entraînées avec un taux d'apprentissage plus faible.

Cette méthode est particulièrement efficace car les couches initiales des réseaux neuronaux profonds ont tendance à apprendre des caractéristiques générales (par exemple, les bords, les textures des images), qui sont souvent transférables à des tâches différentes mais apparentées. En réutilisant ces caractéristiques apprises, l'apprentissage par transfert réduit la nécessité de disposer de nombreuses données et ressources informatiques pour chaque nouveau problème.

Avantages de l'apprentissage par transfert

  • Réduction du temps de formation : le fait de commencer avec des poids pré-entraînés raccourcit considérablement le processus de formation pour les nouvelles tâches. Les modèles convergent plus rapidement parce qu'ils partent d'un point de caractéristiques déjà apprises.
  • Moins de données requises : L'apprentissage par transfert est inestimable lorsqu'on travaille avec des ensembles de données limités. Le modèle pré-entraîné a déjà appris des caractéristiques robustes à partir d'un grand ensemble de données, ce qui permet un apprentissage efficace même avec moins d'exemples pour la nouvelle tâche.
  • Meilleure généralisation : Les modèles pré-entraînés, formés sur de vastes ensembles de données, se généralisent souvent mieux à de nouvelles données inédites. Un réglage fin sur un ensemble de données spécifique peut encore améliorer cette capacité de généralisation pour la tâche cible, ce qui permet d'améliorer la précision du modèle.
  • Cycles de développement plus rapides : En réduisant le temps de formation et les besoins en données, l'apprentissage par transfert accélère le développement et le déploiement des modèles d'apprentissage automatique, ce qui facilite l'itération et l'innovation.

Applications dans le monde réel

L'apprentissage par transfert est appliqué dans de nombreux domaines. Voici quelques exemples concrets :

  • Analyse d'images médicales: Dans l'analyse d'images médicales, les ensembles de données pour des maladies spécifiques peuvent être petits et difficiles à acquérir. L'apprentissage par transfert permet d'affiner efficacement les modèles préformés sur des ensembles de données d'images générales pour des tâches telles que la détection de tumeurs dans les radiographies ou la segmentation d'organes dans les IRM. Cela est essentiel pour améliorer la précision et l'efficacité des diagnostics, comme le soulignent les applications de l'IA dans le domaine de la santé.

  • Détection d'objets dans des domaines spécifiques: Bien qu'il existe de grands ensembles de données pour la détection générale d'objets, les applications spécialisées nécessitent souvent des modèles pour détecter des objets spécifiques dans des contextes uniques. Par exemple, dans le domaine de la vision par ordinateur en agriculture, un modèle pré-entraîné sur un vaste ensemble de données de détection d'objets peut être affiné pour détecter des types spécifiques de cultures ou de parasites dans les images agricoles. Cette approche est particulièrement pertinente dans des applications telles que l'agriculture de précision, où la collecte de données peut être difficile et où l'expertise spécifique au domaine est cruciale. Ultralytics Les modèlesYOLO , tels que YOLOv8 et YOLOv11, sont fréquemment utilisés avec l'apprentissage par transfert pour diverses tâches de détection d'objets, en tirant parti des poids pré-entraînés et des capacités de réglage fin.

Apprentissage par transfert avec Ultralytics YOLO

Ultralytics YOLO sont conçus pour être facilement adaptables grâce à l'apprentissage par transfert. Les utilisateurs peuvent facilement exploiter les poids pré-entraînés disponibles sur Ultralytics HUB pour des modèles tels que YOLOv5, YOLOv8, et YOLOv11. En affinant ces modèles pré-entraînés sur des ensembles de données personnalisés, les utilisateurs peuvent rapidement atteindre des performances élevées pour leurs tâches spécifiques de détection, de segmentation ou de classification d' objets. La fonction d'entraînement dans le nuage deUltralytics HUB simplifie encore ce processus, en permettant aux utilisateurs d'entraîner et d'affiner les modèles dans l'environnement du nuage sans avoir à procéder à une configuration approfondie. Des techniques telles que le réglage des hyperparamètres peuvent également être appliquées pendant le réglage fin afin d'optimiser davantage les performances du modèle pour la tâche spécifique.

Conclusion

L'apprentissage par transfert est une pierre angulaire de l'apprentissage automatique moderne, qui a un impact significatif sur l'efficacité et l'efficience du développement de modèles d'IA. En réutilisant les connaissances des modèles pré-entraînés, il démocratise l'IA, la rendant plus accessible et pratique pour un plus grand nombre d'applications, en particulier dans les scénarios où les données ou les ressources informatiques sont limitées. Sa capacité à accélérer le développement et à améliorer les performances des modèles en fait un outil indispensable dans le paysage de l'IA.

Tout lire