Glossaire

Sous-appareillage

Apprends à identifier, prévenir et traiter l'underfitting dans les modèles d'apprentissage automatique grâce à des conseils d'experts, des stratégies et des exemples concrets.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Dans le domaine de l'apprentissage automatique, atteindre une performance optimale du modèle est un équilibre délicat. L'un des défis courants rencontrés lors de l'apprentissage d'un modèle est le sous-ajustement. Il y a sous-adaptation lorsqu'un modèle d'apprentissage automatique est trop simpliste pour capturer les modèles sous-jacents dans les données d'apprentissage. Cela signifie essentiellement que le modèle ne parvient pas à apprendre les données de manière efficace, ce qui se traduit par des performances médiocres à la fois sur l'ensemble d'apprentissage et sur les données non vues. Cela est souvent dû au fait que le modèle n'a pas la complexité nécessaire pour représenter les relations au sein des données.

Quelles sont les causes de l'inadaptation ?

Plusieurs facteurs peuvent contribuer à un sous-ajustement des modèles d'apprentissage automatique.

  • Simplicité du modèle: L'utilisation d'un modèle trop simple par rapport à la complexité des données est une première cause. Par exemple, tenter d'ajuster un modèle linéaire à des données fortement non linéaires entraînera probablement un sous-ajustement. Des modèles plus complexes comme les réseaux neuronaux convolutifs (CNN) sont souvent nécessaires pour les ensembles de données complexes.
  • Temps de formation insuffisant: si un modèle n'est pas formé pendant un nombre suffisant d'époques, il risque de ne pas avoir assez d'occasions d'apprendre les modèles de données sous-jacents. Un entraînement adéquat permet au modèle d'ajuster ses poids et ses biais pour mieux s'adapter aux données.
  • Manque de caractéristiques pertinentes: Si les caractéristiques d'entrée fournies au modèle ne représentent pas correctement les caractéristiques des données sous-jacentes, le modèle peut avoir du mal à apprendre efficacement. L'ingénierie des caractéristiques pour créer des caractéristiques plus informatives peut aider à atténuer ce problème.
  • Régularisation excessive: Bien que les techniques de régularisation telles que la régularisation L1 ou L2 soient utiles pour empêcher l'ajustement excessif, une régularisation excessive peut contraindre le modèle de façon trop importante, ce qui entraîne un sous-ajustement.

Identifier un sous-ajustement

Le sous-ajustement est généralement identifié en observant les mesures de performance du modèle pendant la formation et la validation. Les indicateurs clés comprennent :

  • Erreur d'apprentissage élevée: Le modèle présente un taux d'erreur élevé sur l'ensemble des données d'apprentissage, ce qui indique qu'il n'apprend pas bien les données d'apprentissage.
  • Erreur de validation élevée: De même, le modèle présente un taux d'erreur élevé sur l'ensemble de données de validation, ce qui suggère une mauvaise généralisation aux données non vues.
  • Mesures de performance médiocres: Les mesures telles que l'exactitude, la précision, le rappel ou le mAP sont nettement inférieures à ce qui est souhaité sur les ensembles de formation et de validation. Pour plus de détails, consulte le siteYOLO .

Remédier à la sous-adaptation

Pour lutter contre le sous-ajustement, plusieurs stratégies peuvent être employées :

  • Augmenter la complexité du modèle: Envisage d'utiliser une architecture de modèle plus complexe. Par exemple, si un modèle linéaire n'est pas suffisamment adapté, essaie d'utiliser un modèle polynomial, un arbre de décision ou un réseau neuronal comme Ultralytics YOLOv8 pour les tâches de détection d'objets.
  • Entraîne-toi plus longtemps: augmente le nombre d'époques d'entraînement pour donner au modèle plus de temps pour apprendre les modèles de données. Des outils comme Ultralytics HUB facilitent la formation et la surveillance des modèles.
  • Ingénierie des caractéristiques: Créer des caractéristiques plus pertinentes et plus informatives à partir des données existantes. Cela peut impliquer la création de nouvelles caractéristiques, la transformation des caractéristiques existantes ou la sélection d'un sous-ensemble de caractéristiques plus pertinentes.
  • Réduire la régularisation: Si la régularisation est utilisée, essaie de réduire la force de régularisation pour permettre au modèle d'être plus flexible et de s'adapter aux données d'apprentissage.
  • Rassemble plus de données: Dans certains cas, le sous-ajustement peut être dû à l'insuffisance des données d'entraînement. L'augmentation de la taille de l'ensemble de données d'entraînement peut fournir au modèle plus d'exemples à partir desquels apprendre. Explore les ensembles de donnéesUltralytics pour trouver des ensembles de données potentiels à utiliser.

Exemples concrets de sous-adaptation

  1. Régression linéaire simple pour la classification des images: Imagine que tu utilises un modèle de régression linéaire de base pour la classification d'images complexes, comme la classification de différentes races de chiens. Un modèle linéaire est beaucoup trop simpliste pour capturer les caractéristiques visuelles complexes qui différencient les races de chiens, ce qui entraîne un sous-ajustement important et une mauvaise précision de la classification. Un modèle plus approprié serait un CNN formé sur un grand ensemble de données comme ImageNet pour apprendre efficacement les caractéristiques des images.
  2. Modèle de base pour la détection d'objets dans des scènes denses: Considère l'utilisation d'un réseau neuronal très superficiel pour la détection d'objets dans une scène de rue bondée. Un modèle aussi simple risque de ne pas détecter de nombreux objets, en particulier les plus petits ou ceux qui sont occultés, en raison de son incapacité à apprendre les relations spatiales complexes et les informations contextuelles. L'utilisation d'une architecture plus avancée et plus profonde comme Ultralytics YOLO11 serait nécessaire pour gérer la complexité et la densité des objets dans de telles scènes.

Sous-appareillage ou sur-appareillage

L'underfitting est le contraire de l'overfitting. Alors que le sous-ajustement se produit lorsqu'un modèle est trop simple et ne parvient pas à apprendre les données d'apprentissage de manière adéquate, l'ajustement excessif se produit lorsqu'un modèle est excessivement complexe et apprend trop bien les données d'apprentissage, y compris le bruit et les détails non pertinents. Les modèles surajustés sont exceptionnellement performants sur les données d'apprentissage, mais médiocres sur de nouvelles données inédites, car ils ne parviennent pas à se généraliser. L'objectif de l'apprentissage automatique est de trouver un modèle qui trouve un équilibre, en évitant à la fois l'underfitting et l'overfitting, afin d'obtenir une bonne généralisation et de bonnes performances. Des techniques telles que la validation croisée et l'ajustement des hyperparamètres sont cruciales pour trouver cet équilibre.

Tout lire