Glossaire

Surajustement

Apprends à identifier, prévenir et traiter le surajustement dans l'apprentissage automatique. Découvre des techniques pour améliorer la généralisation des modèles et les performances dans le monde réel.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Le surajustement dans l'apprentissage automatique se produit lorsqu'un modèle apprend trop bien les données d'apprentissage, capturant le bruit et les fluctuations aléatoires au lieu du modèle sous-jacent. Cela conduit à d'excellentes performances sur l'ensemble des données d'apprentissage, mais à une mauvaise généralisation à de nouvelles données inédites. Essentiellement, le modèle devient trop complexe et adapté aux données de formation, comme s'il mémorisait des réponses au lieu de comprendre des concepts. C'est un défi courant dans la formation des modèles d'IA, en particulier avec des algorithmes complexes comme les réseaux neuronaux utilisés dans Ultralytics YOLO pour des tâches telles que la détection d'objets et la segmentation d'images.

Comprendre le surajustement

Le surajustement survient parce que les modèles d'apprentissage automatique visent à minimiser les erreurs sur les données d'apprentissage. Cependant, si un modèle est excessivement complexe, il peut s'adapter même au bruit présent dans l'ensemble d'apprentissage. Ce bruit ne représente pas les vrais modèles et varie dans les nouveaux ensembles de données. Imagine que l'on adapte parfaitement un costume aux mensurations exactes d'une personne un jour donné - il pourrait ne pas bien s'adapter si le poids de cette personne fluctue ou si quelqu'un d'autre essaie de le porter. Dans l'apprentissage automatique, cet "ajustement parfait" sur les données d'entraînement entraîne un manque de souplesse et des performances médiocres sur les données du monde réel.

Le contraire de l'overfitting est l'underfitting, où un modèle est trop simple pour capturer la structure sous-jacente des données. Un modèle sous-adapté donne de mauvais résultats à la fois sur les données d'entraînement et sur les nouvelles données parce qu'il n'a pas suffisamment appris. L'objectif est de trouver un équilibre, souvent appelé compromis biais-variance, afin de créer un modèle qui se généralise bien.

Exemples réels de surajustement

  1. Analyse d'images médicales: Dans l'analyse d'images médicales pour la détection de maladies, un modèle surajusté peut devenir exceptionnellement bon pour identifier des maladies dans l'ensemble spécifique d'images sur lequel il a été entraîné, et même reconnaître des artefacts ou des bruits uniques présents uniquement dans cet ensemble de données. Cependant, lorsqu'on lui présente de nouvelles images médicales provenant de machines ou de populations de patients différentes, le modèle peut ne pas réussir à se généraliser, ce qui conduit à des diagnostics inexacts dans des contextes cliniques réels. Par exemple, un modèle formé pour détecter des tumeurs à l'aide d'IRM peut s'adapter de façon excessive aux caractéristiques d'un scanner IRM spécifique et donner de mauvais résultats avec des scanners provenant d'un autre scanner, même si la pathologie sous-jacente est la même.

  2. Analyse des sentiments: Considère un modèle d'analyse des sentiments formé pour classer les commentaires des clients comme positifs ou négatifs. S'il est surajouté, le modèle peut devenir trop sensible à des mots ou des phrases spécifiques qui prévalent dans l'ensemble de données d'entraînement. Par exemple, si les données d'entraînement comportent un grand nombre d'avis mentionnant une caractéristique particulière du produit, le modèle peut associer à tort la simple présence de cette caractéristique à un sentiment positif, même si le contexte des nouveaux avis est différent. Cela pourrait conduire à une classification erronée des nouveaux commentaires des clients qui utilisent un langage similaire mais expriment des opinions différentes.

Prévenir le surajustement

Plusieurs techniques peuvent aider à atténuer le surajustement :

  • Augmenter les données de formation: Fournir des données de formation plus diversifiées et plus représentatives peut aider le modèle à apprendre des modèles plus robustes et à réduire la dépendance au bruit. Les techniques d'augmentation des données, comme celles utilisées dans Ultralytics YOLO data augmentation, peuvent augmenter artificiellement la taille et la variabilité de l'ensemble de formation.
  • Simplifie le modèle: Réduire la complexité du modèle, par exemple en diminuant le nombre de couches ou de paramètres dans un réseau neuronal, peut l'empêcher de mémoriser le bruit. Des techniques telles que l'élagage du modèle permettent de supprimer systématiquement les connexions les moins importantes d'un réseau entraîné afin de le simplifier.
  • Régularisation: Les techniques de régularisation ajoutent des contraintes au processus d'apprentissage pour pénaliser les modèles trop complexes. Les méthodes courantes comprennent la régularisation L1 et L2, l'abandon et la normalisation par lots.
  • Validation croisée: L'utilisation de techniques telles que la validation croisée K-Fold permet d'évaluer dans quelle mesure un modèle se généralise à des données inédites en l'entraînant et en l'évaluant sur plusieurs sous-ensembles de données.
  • Arrêt précoce: Le suivi des performances du modèle sur un ensemble de validation pendant la formation et l'arrêt précoce de la formation lorsque les performances de validation commencent à se dégrader permettent d'éviter le surajustement. Cela empêche le modèle de continuer à apprendre du bruit à partir des données d'apprentissage.

En comprenant et en traitant le problème de l'overfitting, les développeurs peuvent construire des modèles d'IA plus fiables et plus efficaces pour diverses applications, en s'assurant qu'ils fonctionnent bien dans les scénarios du monde réel, au-delà de l'environnement de formation. Des outils comme Ultralytics HUB peuvent faciliter le suivi des expériences et l'évaluation des modèles, en aidant à la détection et à l'atténuation de l'overfitting au cours du processus de développement du modèle.

Tout lire