Découvrez comment l'apprentissage auto-supervisé élimine le besoin d'étiquetage manuel. Découvrez les méthodes SSL génératives et contrastives pour améliorer Ultralytics .
L'apprentissage auto-supervisé (SSL) est un paradigme d'apprentissage automatique dans lequel un système apprend à comprendre les données en générant ses propres signaux de supervision à partir des données elles-mêmes, plutôt que de s'appuyer sur des étiquettes externes fournies par des humains. Dans l' apprentissage supervisé traditionnel apprentissage supervisé, les modèles nécessitent de grandes quantités de données annotées manuellement, telles que des images étiquetées « chat » ou « chien », dont la production peut être coûteuse et prendre beaucoup de temps. L'apprentissage auto-supervisé contourne ce goulot d'étranglement en créant des « tâches prétextes » dans lesquelles le modèle doit prédire les parties cachées ou manquantes des données d'entrée, s'enseignant ainsi efficacement la structure et les caractéristiques sous-jacentes nécessaires à des tâches complexes telles que la détection d'objets et la classification.
L'idée fondamentale derrière le protocole SSL est de masquer ou de dissimuler une partie des données et de forcer le réseau neuronal (NN) à les reconstruire ou prédire la relation entre différentes vues des mêmes données. Ce processus crée des représentations riches et polyvalentes qui peuvent être affinées ultérieurement pour des applications spécifiques en aval.
Il existe deux approches principales dans le cadre du protocole SSL :
L'apprentissage auto-supervisé est devenu une pierre angulaire pour la construction de puissants modèles fondamentaux dans divers domaines. Sa capacité à exploiter d'énormes quantités de données non étiquetées le rend hautement évolutif.
Il est important de différencier le SSL du apprentissage non supervisé. Si les deux méthodes utilisent des données non étiquetées, l'apprentissage non supervisé se concentre généralement sur la recherche de modèles cachés ou de regroupements (clustering) sans tâche prédictive spécifique. À l'inverse, l'apprentissage supervisé par les données non étiquetées (SSL) considère le processus d'apprentissage comme une tâche supervisée dans laquelle les étiquettes sont générées automatiquement à partir de la structure des données elle-même. En outre, l' apprentissage semi-supervisé combine une petite quantité de données étiquetées avec une grande quantité de données non étiquetées, tandis que le SSL pur crée ses propres étiquettes entièrement à partir de l'ensemble de données non étiquetées avant tout ajustement.
Dans l Ultralytics , des modèles tels que YOLO26 bénéficient considérablement de stratégies d'entraînement avancées qui intègrent souvent des principes similaires à ceux du SSL pendant la phase de pré-entraînement sur des ensembles de données massifs tels que ImageNet ou COCO. Cela garantit que lorsque les utilisateurs déploient un modèle pour une tâche spécifique, les extracteurs de caractéristiques sont déjà robustes.
Les utilisateurs peuvent exploiter ces puissantes représentations pré-entraînées pour affiner les modèles sur leurs propres ensembles de données personnalisés à l'aide de la plateforme Ultralytics .
Voici un exemple concis montrant comment charger un modèle YOLO26 pré-entraîné et commencer à l'ajuster sur un nouvel ensemble de données, en tirant parti des fonctionnalités apprises lors de son entraînement initial à grande échelle :
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (weights learned from large-scale data)
model = YOLO("yolo26n.pt")
# Fine-tune the model on a specific dataset (e.g., COCO8)
# This leverages the robust feature representations learned during pre-training
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
Comme les chercheurs des grands laboratoires tels que Meta AI et Google continuent d'affiner ces techniques, SSL repousse les limites du possible en matière d' IA générative et la vision par ordinateur. En réduisant la dépendance aux données étiquetées, le SSL démocratise l'accès à l'IA haute performance, permettant à des équipes plus petites de créer des modèles sophistiqués pour des applications de niche telles que la la conservation de la faune sauvage ou l' l'inspection industrielle.