Glossaire

Apprentissage à quelques coups

Découvre comment l'apprentissage à quelques coups permet à l'IA de s'adapter avec un minimum de données, transformant ainsi des domaines tels que les diagnostics médicaux et la conservation de la faune et de la flore.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

L'apprentissage Few-Shot est un sous-domaine de l'apprentissage automatique (ML) axé sur la possibilité pour les modèles d'apprendre et de généraliser à partir d'un très petit nombre d'exemples d'entraînement, généralement juste un à cinq exemples par classe. Cela contraste fortement avec les approches traditionnelles de Deep Learning (DL) qui nécessitent souvent des milliers ou des millions de points de données étiquetés pour atteindre des performances élevées. L'idée centrale est de tirer parti des connaissances antérieures, souvent acquises lors de la formation sur des ensembles de données vastes et diversifiés, pour s'adapter rapidement à de nouvelles tâches ou classes avec un minimum de nouvelles données. Cette méthode est donc particulièrement précieuse dans les situations où la collecte de grandes quantités de données étiquetées n'est pas pratique, est coûteuse ou prend du temps.

Concepts de base

L'apprentissage à la petite semaine fait souvent appel à des concepts tels que :

  • Ensemble de soutien : Le petit ensemble d'exemples étiquetés fournis pour la nouvelle tâche ou les nouvelles classes.
  • Ensemble d'interrogation : Exemples non étiquetés que le modèle doit classer en fonction de l'ensemble de support.
  • Méta-apprentissage : Souvent appelées "apprendre à apprendre", les techniques de méta-apprentissage entraînent un modèle sur une variété de tâches d'apprentissage au cours d'une phase de méta-entraînement. Cela permet au modèle d'apprendre lui-même un algorithme d'apprentissage efficace, qui peut ensuite être rapidement adapté à de nouvelles tâches en utilisant seulement quelques exemples. Les approches populaires comprennent les réseaux d'appariement et les réseaux prototypiques.

Pertinence et applications

La capacité d'apprendre à partir de données limitées rend le Few-Shot Learning très pertinent dans de nombreux domaines :

  • Analyse d'images médicales: Diagnostiquer des maladies rares lorsque seuls quelques scans de patients peuvent être disponibles pour la formation. Par exemple, formation d'un modèle de détection de tumeurs en imagerie médicale lorsque les exemples d'un type de tumeur rare spécifique sont rares.
  • Robotique: Enseigner aux robots de nouvelles compétences ou des capacités de reconnaissance d'objets avec un minimum de démonstrations, ce qui accélère le déploiement dans de nouveaux environnements. On peut par exemple apprendre à un robot à ramasser un nouvel objet après l'avoir montré seulement quelques fois.
  • Personnalisation : Adapter des modèles comme les systèmes de recommandation ou les interfaces utilisateur aux préférences individuelles en se basant sur des données d'interaction très limitées.
  • Vision par ordinateur: Permettre des tâches telles que la classification d'images ou la détection d'objets pour de nouvelles catégories d'objets sans avoir besoin d'une collecte de données et d'une annotation importantes. Des plateformes comme Ultralytics HUB peuvent faciliter l'entraînement des modèles, et des techniques à quelques coups pourraient potentiellement réduire les données nécessaires pour les tâches personnalisées.

Concepts apparentés

Le Few-Shot Learning fait partie d'un éventail de paradigmes d'apprentissage qui traitent des données limitées :

  • Apprentissage à partir de zéro: Un scénario plus difficile dans lequel le modèle doit reconnaître des classes qu'il n'a jamais vues pendant la formation, généralement en tirant parti d'informations auxiliaires telles que les descriptions ou les attributs des classes.
  • Apprentissage à un coup: Un cas spécifique de l'apprentissage à quelques coups où un seul exemple étiqueté est fourni pour chaque nouvelle classe.
  • Apprentissage par transfert: Une technique plus large dans laquelle un modèle pré-entraîné sur un grand ensemble de données (comme ImageNet) est adapté(affiné) pour une nouvelle tâche connexe. Bien qu'il soit souvent utilisé comme base pour l'apprentissage à partir de quelques exemples, l'apprentissage par transfert traditionnel peut nécessiter plus qu'une poignée d'exemples pour une adaptation efficace. Les modèles pré-entraînés comme Ultralytics YOLO sont souvent utilisés comme point de départ pour l'apprentissage par transfert dans la détection d'objets. Tu peux explorer la documentation d'Ultralytics pour trouver des guides sur la formation et l'adaptation des modèles.

Few-Shot Learning représente une étape importante vers des systèmes d'intelligence artificielle (IA) plus efficaces en termes de données et plus adaptables, capables d'apprendre rapidement dans des situations inédites, un peu comme le font les humains.

Tout lire