Few-Shot Learning (FSL) est un sous-domaine de l'apprentissage automatique (ML) axé sur la conception de modèles capables de généraliser à partir d'un très petit nombre d'exemples d'entraînement par classe, souvent une poignée seulement. Cela contraste fortement avec les approches traditionnelles d'apprentissage profond (DL) qui nécessitent généralement de vastes quantités de données d'entraînement étiquetées. L'idée centrale est inspirée de l'apprentissage humain, où nous pouvons souvent reconnaître de nouveaux concepts après avoir vu seulement une ou deux instances. Le DL est particulièrement crucial dans les domaines où la collecte de données est coûteuse, chronophage ou intrinsèquement limitée, ce qui rend l'intelligence artificielle (IA) plus adaptable et plus économe en données.
Apprentissage à la petite semaine et concepts connexes
Il est important de distinguer le FLS des paradigmes d'apprentissage similaires :
- Apprentissage à partir de zéro (ZSL): ZSL vise à classer les instances des classes qui n' ont jamais été vues pendant la formation. Pour ce faire, on utilise généralement des informations auxiliaires, telles que des descriptions textuelles ou des attributs des classes non vues, afin de combler le fossé entre les données vues et non vues. Le FLS, en revanche, nécessite au moins quelques exemples étiquetés pour chaque nouvelle classe. Une vue d'ensemble du ZSL, du FLS et de l'apprentissage par transfert peut fournir un contexte supplémentaire.
- Apprentissage unique (One-Shot Learning, OSL): L'OSL est une variante extrême du FLS dans laquelle le modèle doit apprendre à reconnaître une nouvelle classe à partir d'un seul exemple étiqueté. Il partage les mêmes objectifs que le FLS mais fonctionne avec des contraintes de données encore plus strictes.
- Apprentissage par transfert: Bien que le FLS emploie souvent l'apprentissage par transfert comme technique, les termes ne sont pas interchangeables. L'apprentissage par transfert est un concept plus large qui consiste à tirer parti des connaissances d'une tâche source pour améliorer les performances d'une tâche cible. Le FLS s'attaque spécifiquement au défi de l'apprentissage efficace lorsque la tâche cible dispose d'un nombre extrêmement limité de données étiquetées.
Applications de l'apprentissage à quelques coups
Le FLS permet des applications d'IA dans des scénarios où les grands ensembles de données sont peu pratiques ou impossibles à obtenir :
- Diagnostic des maladies rares : Dans l'analyse d'images médicales, il est difficile d'obtenir de nombreux exemples de maladies rares pour former des modèles de diagnostic. Le FLS permet aux modèles d'apprendre à identifier de telles affections (par exemple, des types spécifiques de tumeurs dans les scanners) à partir d'un petit ensemble d'images de patients, ce qui pourrait accélérer le diagnostic et la recherche. Il s'agit d'un domaine clé pour l'IA dans le secteur de la santé, avec des recherches publiées dans des revues telles que Radiology : Artificial Intelligence.
- Détection d'objets sur mesure : Imagine que tu aies besoin d'un modèle de détection d'objets pour identifier un produit nouvellement conçu sur une chaîne de fabrication ou une espèce rare dans des images de conservation de la faune. L'acquisition de milliers d'images étiquetées peut s'avérer infaisable. Le FLS permet de former des modèles personnalisés, par exemple en adaptant un modèle de détection d'objets. Ultralytics YOLO à l'aide de plateformes comme Ultralytics HUB, avec seulement une poignée d'exemples par nouvelle classe d'objets. Cela accélère le déploiement pour les tâches spécialisées de vision par ordinateur (VA).
- Traduction de langues à faibles ressources : La formation de modèles de traduction pour les langues dont le texte numérique est limité nécessite des techniques de FLS dans le cadre du traitement du langage naturel (NLP).
- Robotique : Permettre aux robots(Robotics) d'apprendre rapidement à reconnaître et à interagir avec de nouveaux objets dans des environnements non familiers sur la base d'une exposition minimale est une autre application, explorée dans les recherches présentées lors de conférences telles que l'ICRA.
Défis et orientations futures
Malgré ses promesses, la FLS est confrontée à des défis, notamment la sensibilité du modèle aux quelques exemples spécifiques fournis et la garantie d'une généralisation solide au-delà de ces exemples. Surmonter le surajustement avec des données aussi limitées est un obstacle important. Les recherches en cours se concentrent sur le développement d'algorithmes de méta-apprentissage plus robustes, sur une meilleure exploitation de l'apprentissage non supervisé ou de l'apprentissage auto-supervisé pour le pré-entraînement, et sur la création de cadres théoriques pour comprendre la généralisation dans les régimes à faible quantité de données. Des organisations telles que Google AI et Meta AI contribuent activement à l'avancement des techniques de FLS, dans le but de rendre les systèmes d'IA plus flexibles et moins gourmands en données.
Comment fonctionne l'apprentissage à quelques coups
Les techniques de Few-Shot Learning visent à tirer parti des connaissances antérieures pour apprendre rapidement de nouveaux concepts à partir de données limitées. Les stratégies les plus courantes sont les suivantes :
Ces méthodes permettent aux réseaux neuronaux (RN) d'atteindre des performances raisonnables même avec un minimum de données spécifiques à la tâche.