Glossaire

Apprentissage en une seule fois

Découvre la puissance du One-Shot Learning, une technique d'IA révolutionnaire permettant aux modèles de se généraliser à partir de données minimales pour des applications dans le monde réel.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Le One-Shot Learning (OSL) est un domaine spécialisé de l'apprentissage automatique (ML) dont l'objectif est de classer de nouveaux exemples en se basant sur une seule instance d'apprentissage pour chaque classe. Cela contraste fortement avec les méthodes traditionnelles d'apprentissage supervisé, qui nécessitent souvent des milliers d'exemples étiquetés par classe pour atteindre une grande précision. L'OSL est particulièrement pertinent dans les scénarios où les données d'entraînement sont rares, coûteuses ou longues à collecter, ce qui en fait une technique cruciale pour les applications du monde réel où les limitations de données sont courantes.

Comment fonctionne l'apprentissage en une seule fois

Au lieu d'apprendre à faire correspondre directement une entrée à une étiquette de classe à partir de nombreux exemples, les modèles OSL apprennent généralement une fonction de similarité. L'idée de base est de déterminer le degré de similarité entre un nouvel exemple inédit (requête) et l'unique exemple étiqueté disponible (support) pour chaque classe. Si l'exemple de la requête est très similaire à l'exemple de support d'une classe spécifique, on lui attribue l'étiquette de cette classe. Cela implique souvent l'utilisation d'architectures d'apprentissage profond (DL) comme les réseaux siamois, qui traitent deux entrées simultanément pour déterminer leur similarité. Ces réseaux sont souvent pré-entraînés sur de grands ensembles de données (comme ImageNet) à l'aide de l'apprentissage par transfert pour apprendre des représentations de caractéristiques robustes avant d'être adaptés à la tâche OSL grâce à des techniques comme l'apprentissage métrique.

Concepts clés de l'apprentissage en une seule fois

  • Ensemble de support : Il contient l'exemple unique étiqueté fourni pour chaque classe à partir duquel le modèle doit apprendre.
  • Ensemble d'interrogation : Il contient les exemples non étiquetés que le modèle doit classer en fonction de l'ensemble de support.
  • Apprentissage de la similarité/métrie : Le processus d'apprentissage d'une fonction de distance ou d'une métrique qui mesure la similarité entre les points de données, cruciale pour comparer les exemples de requête aux exemples de soutien.
  • Formation épisodique : Une stratégie de formation courante où le modèle est formé sur de nombreuses petites tâches OSL (épisodes) échantillonnées à partir d'un ensemble de données plus important pour simuler le scénario d'un seul coup pendant la formation.

Apprentissage unique et paradigmes apparentés

Pour comprendre la LSF, il faut la distinguer des concepts apparentés :

  • Apprentissage à quelques coups (FSL): L'OSL est considéré comme une variante extrême du FSL. Alors que l'OSL n'utilise qu'un seul exemple par classe, le FSL utilise un petit nombre (k > 1, typiquement 5 ou 10) d'exemples par classe. Ces deux méthodes répondent à la pénurie de données mais diffèrent par le nombre d'échantillons disponibles. Tu peux en savoir plus sur ces paradigmes dans notre article de blog sur la compréhension de l'apprentissage à quelques coups, de l'apprentissage à zéro coup et de l'apprentissage par transfert.
  • Apprentissage à partir de zéro (ZSL): ZSL s'attaque à un problème encore plus difficile : la classification d'instances de classes qui n' ont jamais été vues pendant la formation. On y parvient généralement en exploitant des informations auxiliaires, telles que des attributs sémantiques ou des descriptions textuelles, qui relient les classes vues et non vues. L'OSL nécessite de voir un seul exemple ; le ZSL nécessite de ne voir aucun exemple mais a besoin d'un contexte sémantique supplémentaire.
  • Apprentissage par transfert et mise au point: Bien que l'OSL utilise souvent l' apprentissage par transfert (pré-entraînement sur un grand ensemble de données), l'objectif est différent. L'apprentissage par transfert standard ou le réglage fin supposent généralement qu'une quantité raisonnable de données cibles est disponible pour l'adaptation, alors que l'OSL traite spécifiquement de la contrainte d'un seul exemple. Les techniques telles que l'entraînement personnalisé des modèlesYOLO Ultralytics impliquent souvent un réglage fin des poids pré-entraînés, mais généralement avec plus d'un exemple par classe.

Applications dans le monde réel

L'OSL permet de réaliser diverses applications qui étaient auparavant entravées par les limites des données :

  1. Reconnaissance faciale: Les systèmes de sécurité ou les appareils personnels peuvent avoir besoin d'identifier ou de vérifier une personne après l'avoir inscrite à l'aide d'une seule photographie. Le NIST effectue des tests approfondis sur les technologies de reconnaissance faciale, dont beaucoup sont confrontées à des défis similaires à quelques photos ou à une seule photo.
  2. Détection d'objets rares : Dans des domaines tels que le contrôle de la qualité de la fabrication ou la conservation de la faune, l'identification de défauts rares ou d'espèces en voie de disparition n'est possible qu'à partir d'un seul ou de très peu d'exemples antérieurs. Bien que des modèles comme Ultralytics YOLO11 excellent dans la détection d'objets avec suffisamment de données, les techniques OSL pourraient les améliorer pour les classes extrêmement rares.
  3. Vérification de la signature : Authentifier la signature d'une personne sur la base d'une signature de référence unique stockée dans un fichier. La recherche explore l' apprentissage profond pour cette tâche, souvent dans des régimes à faibles données.
  4. Découverte de médicaments : Identifier de nouveaux candidats médicaments potentiels ou prédire les propriétés des molécules en se basant sur des résultats expérimentaux très limités, ce qui accélère le processus de recherche. Des études montrent l 'application de l'OSL dans la prédiction des interactions entre médicaments et cibles.

Défis et orientations futures

Le principal défi de la LSO est la généralisation : comment un modèle peut-il apprendre de façon fiable l'essence d'une classe à partir d'un seul exemple sans surajustement? Le choix et la qualité de l'exemple unique de soutien deviennent d'une importance capitale. Les recherches en cours se concentrent sur le développement de représentations de caractéristiques plus robustes, de meilleures mesures de similarité et sur l'exploitation de techniques telles que le méta-apprentissage ("apprendre à apprendre") afin d'améliorer les performances de la LSO. L'intégration des capacités de la LSO dans des modèles de vision polyvalents et des plates-formes comme Ultralytics HUB pourrait considérablement élargir leur applicabilité dans des environnements où les données sont limitées. L'évaluation des modèles de LSO nécessite un examen minutieux des paramètres de performance dans ces conditions difficiles.

Tout lire