L'apprentissage supervisé est une catégorie fondamentale de l'apprentissage machine (ML) dans laquelle les algorithmes apprennent à partir d'un ensemble de données contenant des paires entrée-sortie, connues sous le nom de données étiquetées. Par essence, l'algorithme est "supervisé" parce qu'il apprend en comparant ses prédictions sur les données d'entrée aux sorties correctes connues (étiquettes) fournies dans les données de formation. L'objectif est que l'algorithme apprenne une fonction de mise en correspondance qui puisse prédire avec précision la sortie pour de nouvelles entrées inédites. Cette approche est au cœur de nombreuses applications modernes d'intelligence artificielle (IA), permettant aux systèmes de faire des prédictions ou de prendre des décisions basées sur des exemples historiques trouvés dans des ensembles de données de référence ou des ensembles de données personnalisés.
Pertinence et applications
L'apprentissage supervisé est incroyablement polyvalent et alimente une vaste gamme d'applications où les données historiques peuvent prédire des événements futurs ou classer de nouvelles informations. Sa capacité à apprendre directement à partir d'exemples étiquetés le rend adapté aux tâches nécessitant une grande précision. De nombreuses tâches de vision par ordinateur (VA) s'appuient fortement sur l'apprentissage supervisé, y compris celles réalisées par des modèles de pointe tels que Ultralytics YOLO.
Voici deux exemples concrets :
- Analyse d'images médicales : Les modèles d'apprentissage supervisé peuvent être formés sur des scans médicaux (comme les IRM ou les tomodensitogrammes) étiquetés par les radiologues pour détecter les tumeurs dans l'imagerie médicale. Cela aide les professionnels de santé à poser des diagnostics, formant ainsi une partie centrale de nombreuses solutions d'IA dans le domaine de la santé. Voir les recherches connexes dans des sources telles que Radiology : Intelligence artificielle.
- Analyse des sentiments : Les algorithmes apprennent à partir de données textuelles étiquetées avec des catégories de sentiment (par exemple, positif, négatif, neutre) pour déterminer automatiquement le sentiment exprimé dans un nouveau texte, comme les avis des clients ou les posts sur les médias sociaux. Cette méthode est précieuse pour les études de marché et la surveillance des marques. En savoir plus sur l'analyse des sentiments.
Parmi les autres applications courantes, on peut citer la détection d'objets dans les images et les vidéos (utilisée dans les véhicules autonomes et les systèmes de sécurité), le filtrage des courriels indésirables, la prédiction des prix des logements (une tâche de régression ) et la reconnaissance faciale. Elle est également appliquée à l 'IA pour une gestion plus intelligente des stocks dans les commerces de détail et à l 'IA dans les solutions agricoles.
Concepts clés
Plusieurs concepts sont essentiels pour comprendre et appliquer efficacement l'apprentissage supervisé :
- Données étiquetées : La base de l'apprentissage supervisé, qui consiste en des données d'entrée associées à des étiquettes de sortie correctes. La qualité et la quantité des données étiquetées influencent fortement les performances du modèle. Des outils et des plateformes d'étiquetage des données sont souvent utilisés.
- Ingénierie des caractéristiques : Le processus de sélection, de transformation ou de création de caractéristiques d'entrée pour améliorer les performances du modèle. Bien que moins critique dans le deep learning en raison de l'extraction automatique des caractéristiques, il reste important dans la ML traditionnelle. Voir le glossaire de l'ingénierie des fonctionnalités.
- Classification et régression : Deux principaux types de tâches d'apprentissage supervisé. La classification prédit des catégories discrètes (par exemple, spam/pas spam, YOLO pour la classification), tandis que la régression prédit des valeurs continues (par exemple, prix, température).
- Algorithmes courants : De nombreux algorithmes relèvent de l'apprentissage supervisé, notamment la régression linéaire, la régression logistique, les machines à vecteurs de support (SVM), les arbres de décision, les forêts aléatoires et divers types de réseaux neuronaux (NN), en particulier les réseaux neuronaux convolutifs (CNN) pour les tâches de vision.
- Cadres et outils : Bibliothèques comme PyTorch et TensorFlow fournissent des outils pour construire et entraîner des modèles supervisés. Des plateformes comme Ultralytics HUB offrent des environnements intégrés pour l'ensemble du cycle de vie de la ML, de la gestion des ensembles de données au déploiement des modèles.
Comparaison avec d'autres paradigmes d'apprentissage
L'apprentissage supervisé se distingue des autres paradigmes primaires d'apprentissage automatique :
- Apprentissage non supervisé: Cette approche utilise des données non étiquetées, où l'algorithme essaie de trouver des modèles ou des structures par lui-même, comme le regroupement de points de données similaires(clustering) ou la réduction des dimensions des données. Il n'apprend pas de correspondance directe entre les entrées et les sorties à partir de réponses connues. Lire un aperçu de l'apprentissage non supervisé.
- Apprentissage par renforcement: Dans ce paradigme, un agent apprend à prendre des séquences de décisions en interagissant avec un environnement et en recevant des récompenses ou des pénalités en fonction de ses actions. Il apprend les comportements optimaux par essais et erreurs, plutôt qu'à partir d'exemples étiquetés. Explore une vue d'ensemble de l'apprentissage par renforcement.
En résumé, l'apprentissage supervisé est une technique puissante et largement utilisée qui exploite les données étiquetées pour former des modèles à des tâches prédictives. Il constitue l'épine dorsale de nombreuses applications d'IA réussies, y compris celles développées et soutenues par Ultralytics, et est une compétence cruciale pour toute personne travaillant dans le domaine de la science des données ou de l'IA.
Comment fonctionne l'apprentissage supervisé
Le processus commence par un ensemble de données soigneusement préparé où chaque point de données est constitué de caractéristiques d'entrée et d'une étiquette de sortie correcte correspondante. Cela implique souvent des efforts considérables en matière de collecte et d'annotation des données. Par exemple, dans une tâche de classification d'images, les entrées seraient des images (peut-être prétraitées à l'aide de techniques provenant de bibliothèques comme OpenCV), et les étiquettes seraient les catégories auxquelles elles appartiennent (par exemple, "chat", "chien"). L'algorithme fait des prédictions itératives sur les données d'apprentissage et ajuste ses paramètres internes (ou les poids du modèle) à l'aide d'un algorithme d'optimisation comme la descente stochastique de gradient (SGD) ou Adam pour minimiser la différence entre ses prédictions et les étiquettes réelles. Cette différence est mesurée par une fonction de perte. Cette formation se poursuit, souvent sur plusieurs époques, jusqu'à ce que le modèle atteigne un niveau satisfaisant de précision ou d'autres mesures de performance pertinentes sur des données de validation distinctes, en veillant à ce qu'il se généralise bien aux nouvelles données et évite le surajustement.