Glossaire

Apprentissage auto-supervisé

Découvre comment l'apprentissage auto-supervisé exploite les données non étiquetées pour une formation efficace, transformant l'IA en vision par ordinateur, NLP, et plus encore.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

L'apprentissage auto-supervisé est une approche d'apprentissage automatique qui exploite les données non étiquetées pour former des modèles. Contrairement à l'apprentissage supervisé, qui nécessite des ensembles de données étiquetées, l'apprentissage auto-supervisé crée ses propres étiquettes à partir de la structure inhérente des données non étiquetées elles-mêmes. Cette méthode est particulièrement précieuse dans des domaines tels que la vision artificielle (CV) et le traitement du langage naturel (NLP), où de grandes quantités de données non étiquetées sont facilement disponibles, mais où l'étiquetage manuel est coûteux et prend du temps.

Comment fonctionne l'apprentissage auto-supervisé ?

L'idée centrale de l'apprentissage auto-supervisé est de concevoir une "tâche prétexte" qui permet à un modèle d'apprendre des représentations utiles à partir de données non étiquetées. Cette tâche prétexte est formulée de telle sorte que sa résolution nécessite la compréhension de schémas significatifs dans les données. Par exemple, dans le domaine du traitement des images, une tâche prétexte pourrait consister à prédire la rotation appliquée à un patch d'image ou à coloriser une image en niveaux de gris. Dans le traitement du langage, une tâche prétexte courante est la modélisation du langage masqué, où le modèle prédit les mots masqués dans une phrase.

Une fois que le modèle est formé à la tâche de prétexte à l'aide d'une grande quantité de données non étiquetées, il apprend les caractéristiques et les représentations générales des données. Ces représentations apprises peuvent ensuite être transférées et affinées pour des tâches en aval, telles que la détection d'objets, la classification d'images ou la segmentation d'images, souvent avec beaucoup moins de données étiquetées que ce qui serait nécessaire pour une formation purement supervisée. Cette capacité d'apprentissage par transfert est l'un des principaux avantages de l'apprentissage auto-supervisé.

Applications de l'apprentissage auto-supervisé

L'apprentissage auto-supervisé a trouvé des applications dans divers domaines, en particulier lorsque les données étiquetées sont rares ou coûteuses à obtenir :

  • Vision par ordinateur: Dans l'analyse d'images médicales, l'apprentissage auto-supervisé permet de pré-entraîner des modèles sur de grands ensembles de données d'images médicales non étiquetées (comme des radiographies ou des IRM). Ces modèles pré-entraînés peuvent ensuite être affinés pour des tâches de diagnostic spécifiques en utilisant des données étiquetées limitées, ce qui améliore la précision et l'efficacité de l'interprétation des images médicales. Par exemple, des modèles comme Ultralytics YOLOv8 peuvent bénéficier d'un pré-entraînement auto-supervisé pour améliorer leurs performances en matière de détection des anomalies dans les images médicales.
  • Traitement du langage naturel: Les grands modèles de langage (LLM) comme le GPT-4 sont souvent pré-entraînés à l'aide de techniques d'apprentissage auto-supervisé sur des quantités massives de données textuelles. Ce préapprentissage leur permet d'acquérir des capacités générales de compréhension et de génération de langage, qui sont ensuite affinées pour des tâches spécifiques de TAL telles que le résumé de texte, la traduction ou l'analyse des sentiments. Des techniques telles que le réglage rapide permettent d'exploiter davantage ces modèles pré-entraînés pour une adaptation efficace à de nouvelles tâches.

Apprentissage auto-supervisé et concepts similaires

Il est important de distinguer l'apprentissage auto-supervisé des autres paradigmes d'apprentissage automatique apparentés :

  • Apprentissage non supervisé: Bien que les deux utilisent des données non étiquetées, l'apprentissage non supervisé vise à trouver des structures ou des modèles inhérents aux données sans aucune tâche spécifique à l'esprit (par exemple, le regroupement, la réduction de la dimensionnalité). L'apprentissage auto-supervisé, quant à lui, formule une tâche prétexte à l'apprentissage de représentations utiles pour les tâches en aval.
  • Apprentissage semi-supervisé: L'apprentissage semi-supervisé utilise une combinaison de données étiquetées et non étiquetées, mais il repose toujours sur une certaine quantité de données étiquetées pour la formation. L'apprentissage auto-supervisé se concentre principalement sur l'apprentissage à partir de données non étiquetées, puis sur l'affinage éventuel à l'aide d'une petite quantité de données étiquetées.

L'apprentissage auto-supervisé représente une avancée significative dans l'apprentissage automatique, permettant d'utiliser efficacement les vastes quantités de données non étiquetées disponibles et de réduire la dépendance à l'égard des ensembles de données étiquetées coûteux. Au fur et à mesure que les modèles tels que Ultralytics YOLO11 continuent d'évoluer, les techniques d'auto-supervision joueront probablement un rôle de plus en plus important dans l'amélioration de leur performance et de leur applicabilité dans diverses applications d'IA visionnaire.

Tout lire