L'apprentissage supervisé est une catégorie fondamentale de l'apprentissage machine (ML) dans laquelle les algorithmes apprennent à partir d'un ensemble de données contenant des paires entrée-sortie, connues sous le nom de données étiquetées. Par essence, l'algorithme est "supervisé" parce qu'il apprend en comparant ses prédictions sur les données d'entrée aux sorties correctes connues (étiquettes) fournies dans les données de formation. L'objectif est que l'algorithme apprenne une fonction de mise en correspondance qui puisse prédire avec précision la sortie pour de nouvelles entrées inédites. Cette approche est au cœur de nombreuses applications modernes d'intelligence artificielle (IA), permettant aux systèmes de faire des prédictions ou de prendre des décisions sur la base d'exemples historiques.
Pertinence et applications
L'apprentissage supervisé est incroyablement polyvalent et alimente une vaste gamme d'applications où les données historiques peuvent prédire des événements futurs ou classer de nouvelles informations. Sa capacité à apprendre directement à partir d'exemples étiquetés le rend adapté aux tâches nécessitant une grande précision. De nombreuses tâches de vision par ordinateur s'appuient fortement sur l'apprentissage supervisé, y compris celles réalisées par des modèles tels que Ultralytics YOLO.
Voici deux exemples concrets :
- Analyse d'images médicales : Les modèles d'apprentissage supervisé peuvent être formés sur des ensembles de données de scans médicaux (comme des radiographies ou des IRM) étiquetés par des radiologues. Par exemple, un modèle peut apprendre à détecter les tumeurs dans l'imagerie médicale en étant formé sur des images étiquetées comme "tumeur" ou "pas de tumeur". Cela aide les médecins à poser des diagnostics et à planifier des traitements, contribuant ainsi de manière significative aux solutions d'IA dans le domaine de la santé.
- Analyse des sentiments : Les entreprises veulent souvent comprendre les opinions des clients à partir de données textuelles comme les avis ou les posts sur les médias sociaux. Un modèle supervisé peut être formé sur des exemples de texte étiquetés avec des sentiments ("positif", "négatif", "neutre"). Une fois formé, il peut classer automatiquement de nouveaux textes, fournissant ainsi des informations précieuses pour les études de marché et le service client. En savoir plus sur l'analyse des sentiments.
Parmi les autres applications courantes, on peut citer la détection d'objets dans les images et les vidéos (utilisée dans les véhicules autonomes et les systèmes de sécurité), le filtrage des courriels indésirables, la prédiction des prix des logements( tâche derégression ) et la reconnaissance faciale.
Concepts clés
Plusieurs concepts sont essentiels pour comprendre l'apprentissage supervisé :
- Données étiquetées : La base de l'apprentissage supervisé, qui consiste en des données d'entrée associées à des étiquettes de sortie correctes. La collecte et l'annotation de données de haute qualité sont cruciales.
- Caractéristiques : Variables d'entrée mesurables ou caractéristiques utilisées par le modèle pour faire des prédictions. L'ingénierie des caractéristiques peut avoir un impact significatif sur les performances.
- Étiquettes (ou cibles) : Les valeurs de sortie correctes associées aux caractéristiques d'entrée dans les données d'apprentissage.
- Classification : Un type de tâche d'apprentissage supervisé dont l'objectif est de prédire une étiquette de catégorie discrète (par exemple, classer des courriels comme "spam" ou "non spam", ou des images dans différentes classes à l'aide de modèles comme YOLO pour la classification).
- Régression : Un type de tâche d'apprentissage supervisé dont l'objectif est de prédire une valeur numérique continue (par exemple, prédire la température, le cours des actions ou la valeur des maisons à l'aide d'algorithmes tels que la régression linéaire).
- Algorithmes courants : Comprend des méthodes telles que la régression logistique, les machines à vecteurs de support (SVM), les arbres de décision, les forêts aléatoires et divers types de réseaux neuronaux (NN), en particulier les réseaux neuronaux convolutifs (CNN) pour les tâches liées à l'image, souvent mis en œuvre à l'aide de cadres tels que. PyTorch.
Comparaison avec d'autres paradigmes d'apprentissage
L'apprentissage supervisé se distingue des autres paradigmes primaires d'apprentissage automatique :
- Apprentissage non supervisé: Les algorithmes apprennent des modèles à partir de données non étiquetées sans orientation explicite. Les tâches courantes comprennent le clustering (regroupement de points de données similaires) et la réduction de la dimensionnalité (simplification des données). Il est utilisé lorsque les données étiquetées ne sont pas disponibles ou que l'objectif est de découvrir des structures cachées.
- Apprentissage par renforcement: Les algorithmes apprennent en interagissant avec un environnement et en recevant un retour d'information sous forme de récompenses ou de pénalités. L'objectif est d'apprendre une politique (une stratégie de choix des actions) qui maximise les récompenses cumulées au fil du temps. Il est souvent utilisé en robotique, dans les jeux et dans les systèmes de navigation.
En résumé, l'apprentissage supervisé est une technique puissante qui exploite les données étiquetées pour former des modèles pour des tâches prédictives, formant l'épine dorsale de nombreuses applications d'IA réussies, y compris celles développées et soutenues par Ultralytics et des plateformes comme Ultralytics HUB.
Comment fonctionne l'apprentissage supervisé
Le processus commence par un ensemble de données où chaque point de données est constitué de caractéristiques d'entrée et d'une étiquette de sortie correcte correspondante. Par exemple, dans une tâche de classification d'images, les entrées seraient des images et les étiquettes seraient les catégories auxquelles elles appartiennent (par exemple, "chat", "chien"). L'algorithme fait des prédictions itératives sur les données d'apprentissage et ajuste ses paramètres internes à l'aide d'un algorithme d'optimisation comme la descente de gradient pour minimiser la différence entre ses prédictions et les étiquettes réelles, mesurée par une fonction de perte. Cet entraînement se poursuit jusqu'à ce que le modèle atteigne un niveau de précision satisfaisant sur les données de validation.