Exploitez la puissance de l'apprentissage par transfert pour gagner du temps, améliorer les performances de l'IA et vous attaquer à de nouvelles tâches avec des données limitées grâce à des modèles pré-entraînés.
L'apprentissage par transfert est une technique d'apprentissage automatique qui consiste à réutiliser un modèle développé pour une tâche donnée comme point de départ d'un modèle pour une deuxième tâche connexe. Au lieu de construire un modèle à partir de zéro, ce qui nécessite une grande quantité de données et de ressources informatiques, l'apprentissage par transfert exploite les connaissances - telles que les caractéristiques, les poids et les modèles - apprises à partir d'une tâche source. Cette approche est très efficace et est devenue la pierre angulaire de l'apprentissage profond moderne, en particulier dans le domaine de la vision artificielle (CV). En utilisant un modèle pré-entraîné, les développeurs peuvent obtenir de meilleures performances avec beaucoup moins de données et des temps d'entraînement plus courts.
L'apprentissage par transfert n'est pas seulement un concept théorique ; il a des applications pratiques dans de nombreux secteurs.
Il est important de différencier l'apprentissage par transfert des autres techniques de ML :
L'application de l'apprentissage par transfert est accessible grâce à divers outils et plateformes. Des frameworks comme PyTorch et TensorFlow fournissent une documentation complète et des modèles pré-entraînés. Des plateformes comme Ultralytics HUB rationalisent l'ensemble du flux de travail, permettant aux utilisateurs de charger facilement des modèles pré-entraînés comme YOLOv8 et YOLO11, d'effectuer un entraînement personnalisé sur de nouveaux ensembles de données et de gérer le déploiement des modèles. Pour une compréhension théorique plus approfondie, des ressources telles que la vue d'ensemble de Stanford CS231n sur l'apprentissage par transfert sont inestimables.
Comment fonctionne l'apprentissage par transfert
L'idée centrale de l'apprentissage par transfert est qu'un modèle formé sur un grand ensemble de données générales, comme ImageNet pour la classification des images, a déjà appris à reconnaître des caractéristiques universelles telles que les bords, les textures et les formes. Ces connaissances fondamentales sont stockées dans les couches initiales du modèle, souvent appelées " épine dorsale".
Le processus comporte généralement deux étapes principales :