Apprentissage semi-supervisé
Découvrez comment l'apprentissage semi-supervisé combine des données étiquetées et non étiquetées pour améliorer la précision des modèles. Apprenez à mettre en œuvre des workflows SSL à l'aide Ultralytics .
L'apprentissage semi-supervisé (SSL) est un paradigme stratégique dans l'
apprentissage automatique (ML) qui sert de pont
entre deux méthodes d'entraînement traditionnelles. Alors que l'
apprentissage supervisé repose entièrement sur des ensembles de données entièrement
annotés et que l'
apprentissage non supervisé tente de trouver des
modèles dans des données sans aucune balise, le SSL fonctionne en combinant une petite quantité de
données étiquetées avec un ensemble beaucoup plus important de
données non étiquetées. Cette approche est particulièrement
précieuse dans les scénarios réels
de vision par ordinateur (CV) où la collecte d'
images brutes, telles que les séquences vidéo provenant de caméras de sécurité ou de satellites, est relativement peu coûteuse, mais où le processus d'
étiquetage des données par des experts humains est coûteux, lent et
demande beaucoup de main-d'œuvre. En utilisant efficacement la structure cachée dans les exemples non étiquetés, SSL peut améliorer considérablement la
précision et la généralisation du modèle sans
nécessiter un budget d'annotation exhaustif.
Mécanismes fondamentaux de l'apprentissage semi-supervisé
L'objectif principal du SSL est de propager les informations contenues dans le petit ensemble d'exemples étiquetés vers l'ensemble plus large
non étiqueté. Cela permet au réseau neuronal d'
apprendre les limites de décision qui traversent les régions à faible densité des données, ce qui se traduit par une classification
ou une détection plus robuste.
Deux techniques populaires sont à l'origine de la plupart des flux de travail semi-supervisés :
-
Pseudo-étiquetage : dans cette méthode, un modèle est d'abord entraîné sur les données étiquetées limitées. Il est ensuite
utilisé pour effectuer une inférence sur les données non étiquetées. Les prédictions qui dépassent un certain
seuil de confiance sont traitées comme des
« pseudo-étiquettes » ou des vérités fondamentales. Ces prédictions fiables
sont ajoutées aux données d'entraînement, et le
modèle est réentraîné, améliorant ainsi ses performances de manière itérative.
-
Régularisation de la cohérence : cette technique repose sur l'
augmentation des données. L'idée est qu'un modèle
doit produire des prédictions similaires pour une image et une version légèrement modifiée (augmentée) de cette même image. En
minimisant la différence entre les prédictions de la version originale et celles de la version augmentée, le modèle apprend à se concentrer
sur les caractéristiques essentielles de l'objet plutôt que sur le bruit, ce qui améliore sa capacité à gérer le
surapprentissage.
Mise en œuvre pratique avec YOLO
Python suivant illustre un workflow simple de pseudo-étiquetage à l'aide de l'outil
ultralytics . Ici, nous entraînons un
modèle YOLO26 sur un petit ensemble de données, puis l'utilisons pour générer des
étiquettes pour un répertoire d'images non étiquetées.
from ultralytics import YOLO
# Load the latest YOLO26 model
model = YOLO("yolo26n.pt")
# Train initially on a small available labeled dataset
model.train(data="coco8.yaml", epochs=10)
# Run inference on unlabeled data to generate pseudo-labels
# Setting save_txt=True saves the detections as text files for future training
results = model.predict(source="./unlabeled_images", save_txt=True, conf=0.85)
Applications concrètes
L'apprentissage semi-supervisé transforme les secteurs où les données sont abondantes mais l'expertise rare.
-
Imagerie médicale : dans le domaine de l'
IA appliquée à la santé, l'acquisition d'images (radiographies, IRM)
est une procédure standard, mais faire appel à un radiologue certifié pour annoter chaque pixel afin de
détecter des tumeurs
revient extrêmement cher. Le SSL permet aux chercheurs de former des modèles hautement performants en utilisant seulement une fraction des
cas annotés par des experts, en exploitant des milliers d'images archivées pour affiner la compréhension des structures biologiques par le modèle
.
-
Conduite autonome : les constructeurs de voitures autonomes collectent quotidiennement des pétaoctets de données vidéo à partir de leur flotte
de véhicules. Il est impossible d'étiqueter chaque image pour la
détection d'objets et la
segmentation sémantique.
Grâce au SSL, le système peut apprendre à partir de la grande majorité des heures de conduite non étiquetées afin de mieux comprendre les environnements routiers complexes
, les conditions météorologiques et les cas limites rares.
Distinguer les concepts apparentés
Pour déployer efficacement des solutions d'IA, il est essentiel de comprendre en quoi le SSL diffère des stratégies similaires :
-
vs. Apprentissage actif: bien que les deux
traitent des données non étiquetées, leur approche en matière d'étiquetage diffère. Le SSL attribue automatiquement des étiquettes en fonction des prédictions du modèle
. En revanche, l'apprentissage actif identifie les points de données les plus « confus » ou incertains et
demande explicitement à un
humain dans la boucle de les étiqueter,
optimisant ainsi le temps de l'humain plutôt que de les supprimer entièrement.
-
vs. Apprentissage par transfert:
L'apprentissage par transfert consiste à utiliser un modèle pré-entraîné sur un ensemble de données externes massif (comme
ImageNet) et de l'ajuster à votre tâche spécifique.
Le SSL, quant à lui, se concentre sur l'exploitation de la partie non étiquetée de la distribution de votre ensemble de données spécifique
pendant le processus d'entraînement lui-même.
-
vs. Apprentissage auto-supervisé:
Bien que les noms soient similaires, l'apprentissage auto-supervisé fait souvent référence à des « tâches prétextes » (comme résoudre un
puzzle d'images fragmentées) où les données génèrent leurs propres signaux de supervision sans aucune étiquette externe.
L'SSL implique spécifiquement l'utilisation d'un ensemble plus restreint d'étiquettes vérifiées pour guider le processus.
Outils et perspectives d'avenir
À mesure que les modèles d'apprentissage profond (DL) gagnent en taille, l'
efficacité de l'utilisation des données devient primordiale. Les frameworks modernes tels que PyTorch et
TensorFlow fournissent l'infrastructure informatique nécessaire à ces boucles d'apprentissage avancées
. De plus, des outils tels que la Ultralytics simplifient le
cycle de vie de la gestion des ensembles de données. En utilisant des fonctionnalités telles que l'
annotation automatique, les équipes peuvent mettre en œuvre plus facilement des
workflows semi-supervisés, transformant rapidement les données brutes en
pondérations de modèles prêts à être utilisés. Cette évolution des
MLOps garantit que les obstacles à la
création de systèmes de vision haute précision continuent de s'amenuiser.