L'apprentissage semi-supervisé est une branche de l'apprentissage automatique qui comble le fossé entre l'apprentissage supervisé et l'apprentissage non supervisé. Il exploite à la fois les données étiquetées et non étiquetées pour former des modèles. Dans de nombreux scénarios du monde réel, l'obtention de données étiquetées peut être coûteuse et prendre du temps, car elle nécessite une annotation manuelle par des experts. Les données non étiquetées, en revanche, sont souvent facilement disponibles en grandes quantités. Les techniques d'apprentissage semi-supervisé capitalisent sur cette abondance de données non étiquetées pour améliorer les performances des modèles, en particulier lorsque les données étiquetées sont rares.
Comment fonctionne l'apprentissage semi-supervisé
Contrairement à l'apprentissage supervisé, qui repose entièrement sur des données étiquetées, et à l'apprentissage non supervisé, qui utilise uniquement des données non étiquetées, l'apprentissage semi-supervisé combine les deux. L'idée centrale est que les données non étiquetées contiennent des informations précieuses sur la structure sous-jacente de la distribution des données. En incorporant ces informations, les modèles d'apprentissage semi-supervisé peuvent souvent atteindre une meilleure précision et une meilleure généralisation que les modèles formés uniquement sur des données étiquetées limitées.
Plusieurs techniques relèvent de l'apprentissage semi-supervisé, notamment :
- Pseudo-étiquetage : Cette méthode consiste à former un modèle sur des données étiquetées, puis à l'utiliser pour prédire les étiquettes des données non étiquetées. Ces étiquettes prédites, ou "pseudo-étiquettes", sont ensuite traitées comme s'il s'agissait de vraies étiquettes et utilisées pour entraîner à nouveau le modèle, souvent de manière itérative.
- Régularisation de cohérence : Cette approche encourage le modèle à produire des prédictions similaires pour les points de données non étiquetés, même lorsqu'ils sont légèrement perturbés ou augmentés. Des techniques comme l'augmentation des données sont souvent utilisées pour créer ces perturbations.
- Méthodes basées sur les graphes : Ces méthodes représentent les points de données comme des nœuds dans un graphique, où les arêtes relient les points similaires. Les étiquettes sont ensuite propagées des nœuds étiquetés aux nœuds non étiquetés en fonction de la structure du graphique.
- Auto-apprentissage : Semblable au pseudo-étiquetage, l'auto-apprentissage élargit de façon itérative l'ensemble de données étiquetées en ajoutant des prédictions très fiables sur des données non étiquetées.
Applications de l'apprentissage semi-supervisé
L'apprentissage semi-supervisé est précieux dans divers domaines, en particulier lorsque les données étiquetées sont limitées :
- Analyse d'images médicales : Dans l'analyse d'images médicales, l'acquisition d'images médicales étiquetées pour des tâches telles que la détection de tumeurs ou la classification de maladies nécessite souvent l'intervention de radiologues experts, ce qui rend l'opération coûteuse et chronophage. L'apprentissage semi-supervisé peut aider à former des modèles précis en utilisant un plus petit ensemble d'images étiquetées ainsi qu'un plus grand nombre de scans non étiquetés. Par exemple, dans la détection des tumeurs cérébrales à l'aide de Ultralytics YOLO pour la détection d'objets, les techniques semi-supervisées peuvent améliorer les performances du modèle avec des données IRM étiquetées limitées.
- Traitement du langage naturel (NLP) : Les tâches telles que l'analyse des sentiments ou la reconnaissance des entités nommées (NER) bénéficient souvent d'un apprentissage semi-supervisé. De grandes quantités de données textuelles sont facilement disponibles, mais l'étiquetage du texte pour des tâches NLP spécifiques peut s'avérer laborieux. Les méthodes semi-supervisées peuvent tirer parti de textes non étiquetés pour améliorer la compréhension par le modèle des nuances et du contexte de la langue.
- Reconnaissance de la parole : Comme pour le NLP, les systèmes de reconnaissance vocale peuvent bénéficier de grandes quantités de données audio non étiquetées. L'apprentissage semi-supervisé aide à construire des modèles robustes qui se généralisent bien même avec des données vocales étiquetées limitées.
- Classification d'images et détection d'objets : Dans les tâches de vision artificielle telles que la classification d'images et la détection d'objets, l'apprentissage semi-supervisé peut être utilisé pour améliorer les performances de modèles tels que Ultralytics YOLOv8 lorsqu'ils sont formés sur des ensembles de données où seule une fraction des images est annotée avec des boîtes de délimitation ou des étiquettes. Ultralytics HUB peut être utilisé pour gérer des ensembles de données et former des modèles, et l'apprentissage semi-supervisé peut être intégré pour optimiser la formation avec des données étiquetées limitées.
Avantages de l'apprentissage semi-supervisé
- Précision améliorée : en utilisant des données non étiquetées, l'apprentissage semi-supervisé peut souvent conduire à des modèles plus précis que l'apprentissage supervisé avec des données étiquetées limitées.
- Réduction des coûts d'étiquetage : Il réduit considérablement la nécessité d'un étiquetage manuel approfondi des données, ce qui permet d'économiser du temps et des ressources.
- Meilleure généralisation : L'entraînement avec des données étiquetées et non étiquetées peut aider les modèles à apprendre des représentations plus robustes et généralisables, ce qui permet d'obtenir de meilleures performances sur des données non vues.
L'apprentissage semi-supervisé offre une approche puissante de l'apprentissage automatique, en particulier dans les scénarios où les données étiquetées constituent un goulot d'étranglement. En exploitant efficacement la richesse des données non étiquetées disponibles, il permet de développer des systèmes d'IA plus précis et plus efficaces dans un large éventail d'applications.