Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Régularisation

Découvrez comment la régularisation empêche le surapprentissage dans l'apprentissage automatique. Apprenez à mettre en œuvre le dropout et la décroissance des poids à l'aide Ultralytics afin d'améliorer la généralisation des modèles.

La régularisation est un ensemble de techniques utilisées dans l' apprentissage automatique pour empêcher les modèles de devenir trop complexes et pour améliorer leur capacité à généraliser à des données nouvelles et inconnues. Au cours du processus d'apprentissage, un modèle s'efforce de minimiser son erreur, souvent en apprenant des modèles complexes dans les données d'apprentissage. Cependant, sans contraintes, le modèle peut commencer à mémoriser le bruit et les valeurs aberrantes, un problème connu sous le nom de surajustement. La régularisation résout ce problème en ajoutant une pénalité à la fonction de perte du modèle, ce qui décourage efficacement les valeurs extrêmes des paramètres et oblige l'algorithme à apprendre des modèles plus fluides et plus robustes.

Concepts et techniques fondamentaux

Le principe de régularisation est souvent comparé au rasoir d'Occam, qui suggère que la solution la plus simple est généralement la bonne. En contraignant le modèle, les développeurs s'assurent qu'il se concentre sur les caractéristiques les plus significatives des données plutôt que sur des corrélations accidentelles.

Plusieurs méthodes courantes sont utilisées pour mettre en œuvre la régularisation dans les cadres modernes d'apprentissage profond:

  • Régularisation L1 et L2 : ces techniques ajoutent un terme de pénalité basé sur l'amplitude des poids du modèle. La régularisation L2, également connue sous le nom de régression Ridge ou décroissance des poids, pénalise fortement les poids importants, les encourageant à être petits et diffus. La régularisation L1, ou régression Lasso, peut ramener certains poids à zéro, effectuant ainsi une sélection efficace des caractéristiques.
  • Dropout : Utilisé spécifiquement dans les réseaux neuronaux, une couche de dropout désactive aléatoirement un pourcentage de neurones pendant l'entraînement. Cela oblige le réseau à développer des voies redondantes pour identifier les caractéristiques, garantissant ainsi qu'aucun neurone ne devienne un goulot d'étranglement pour une prédiction spécifique.
  • Augmentation des données : bien qu'il s'agisse principalement d'une étape de prétraitement, l' augmentation des données agit comme un puissant régulateur. En élargissant artificiellement l'ensemble de données avec des versions modifiées des images (rotations, inversions, changements de couleur), le modèle est exposé à plus de variabilité, ce qui l'empêche de mémoriser les exemples statiques originaux.
  • Arrêt précoce : cela implique de surveiller les performances du modèle sur les données de validation pendant l'entraînement. Si l' erreur de validation commence à augmenter alors que l'erreur d'entraînement diminue, le processus est interrompu afin d'empêcher le modèle d' apprendre du bruit.

Applications concrètes

La régularisation est indispensable pour déployer des systèmes d'IA fiables dans divers secteurs où la variabilité des données est élevée.

  1. Conduite autonome: dans les solutions d'IA pour l'automobile, les modèles de vision par ordinateur doivent detect et les panneaux de signalisation dans diverses conditions météorologiques. Sans régularisation, un modèle pourrait mémoriser des conditions d'éclairage spécifiques issues de l'ensemble d'entraînement et échouer dans le monde réel. Des techniques telles que la diminution des poids garantissent que le système de détection s'adapte bien à la pluie, au brouillard ou à l'éblouissement, ce qui est essentiel pour la sécurité des véhicules autonomes.
  2. Imagerie médicale: lors de l'analyse d'images médicales, les ensembles de données sont souvent limités en taille en raison de préoccupations liées à la confidentialité ou à la rareté des pathologies. Le surajustement représente ici un risque important. Les méthodes de régularisation aident les modèles entraînés à detect dans les radiographies ou les IRM à rester précis sur les nouvelles données des patients , ce qui permet d'obtenir de meilleurs résultats diagnostiques dans le domaine de l' IA appliquée à la santé.

Mise en œuvre en Python

Les bibliothèques modernes facilitent l'application de la régularisation via des hyperparamètres. L'exemple suivant montre comment appliquer dropout et weight_decay lors de la formation du YOLO26 modèle.

from ultralytics import YOLO

# Load the latest YOLO26 model
model = YOLO("yolo26n.pt")

# Train with regularization hyperparameters
# 'dropout' adds randomness, 'weight_decay' penalizes large weights to prevent overfitting
model.train(data="coco8.yaml", epochs=100, dropout=0.5, weight_decay=0.0005)

La gestion de ces expériences et le suivi de l'impact des différentes valeurs de régularisation sur les performances peuvent être gérés de manière transparente via la Ultralytics , qui propose des outils pour enregistrer et comparer les cycles de formation.

Régularisation et concepts connexes

Il est utile de distinguer la régularisation des autres termes d'optimisation et de prétraitement :

  • Régularisation et normalisation: La normalisation consiste à ramener les données d'entrée dans une fourchette standard afin d'accélérer la convergence. Bien que des techniques telles que la normalisation par lots peuvent avoir un léger effet de régularisation, leur objectif principal est de stabiliser la dynamique d'apprentissage. régularisation, leur objectif principal est de stabiliser la dynamique d'apprentissage, alors que la régularisation pénalise explicitement la complexité. explicitement la complexité.
  • Régularisation vs. Réglage des hyperparamètres: les paramètres de régularisation (tels que le taux d'abandon ou la pénalité L2) sont eux-mêmes des hyperparamètres. Le réglage des hyperparamètres est le processus plus large qui consiste à rechercher les valeurs optimales pour ces paramètres, souvent afin d'équilibrer le compromis biais-variance.
  • Régularisation et apprentissage d'ensemble: Les méthodes d'ensemble combinent les prédictions de plusieurs modèles afin de réduire la variance et d'améliorer la généralisation. Bien que régularisation, elles le font en agrégeant divers modèles plutôt qu'en contraignant l'apprentissage d'un seul modèle. l'apprentissage d'un seul modèle.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant