Glossaire

Régularisation

Empêche le surajustement et améliore la généralisation du modèle grâce à des techniques de régularisation telles que L1, L2, dropout et early stopping. En savoir plus !

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

La régularisation est une technique cruciale de l'apprentissage automatique utilisée pour empêcher le surajustement et améliorer la généralisation能力 des modèles à des données inédites. Elle fonctionne en ajoutant des contraintes supplémentaires au processus d'apprentissage du modèle, décourageant les modèles trop complexes qui mémorisent les données d'apprentissage au lieu d'apprendre les modèles sous-jacents. Cela permet d'obtenir des modèles plus performants sur de nouvelles données inédites, ce qui est l'objectif ultime de l'apprentissage automatique.

Qu'est-ce que la régularisation ?

Essentiellement, la régularisation vise à simplifier le modèle en pénalisant la complexité pendant la formation. Les modèles complexes comportant de nombreux paramètres ont tendance à s'adapter au bruit des données d'apprentissage, ce qui entraîne de mauvaises performances sur les nouvelles données. Les méthodes de régularisation introduisent un terme de pénalité dans la fonction de perte que le modèle tente de minimiser. Cette pénalité décourage le modèle d'attribuer des poids trop importants aux caractéristiques, ce qui favorise des modèles plus simples et plus généralisables. En contrôlant la complexité du modèle, la régularisation permet de trouver un équilibre entre l'adaptation aux données d'apprentissage et la généralisation à de nouvelles données, ce qui permet de trouver un compromis entre le biais et la variance.

Types de régularisation

Plusieurs techniques de régularisation sont couramment utilisées dans l'apprentissage automatique, chacune ayant sa propre approche pour pénaliser la complexité du modèle. Parmi les plus populaires, on peut citer :

  • Régularisation L1 (Lasso) : Ajoute une pénalité proportionnelle à la valeur absolue des poids. Cela encourage la rareté dans le modèle, ce qui a pour effet de ramener à zéro les poids de certaines caractéristiques et d'effectuer une sélection des caractéristiques. La régularisation L1 peut être particulièrement utile lorsqu'il s'agit de données à haute dimension où de nombreuses caractéristiques peuvent ne pas être pertinentes.
  • Régularisation L2 (Ridge) : Ajoute une pénalité proportionnelle au carré de la magnitude des poids. Cela rétrécit tous les poids vers zéro, mais contrairement à L1, il est rare qu'ils soient exactement à zéro. La régularisation L2 réduit l'impact des caractéristiques moins importantes sans les éliminer complètement, ce qui permet d'obtenir des modèles plus stables et plus robustes.
  • Abandon : Technique spécifique aux réseaux neuronaux, les couches d'abandon mettent aléatoirement une fraction de neurones à zéro pendant chaque itération de formation. Cela empêche les neurones de trop se coadapter aux données d'apprentissage et oblige le réseau à apprendre des caractéristiques plus robustes et indépendantes. Le dropout est efficace pour réduire l'overfitting et améliorer la généralisation des modèles d'apprentissage profond.
  • Arrêt précoce : Surveille les performances du modèle sur un ensemble de données de validation pendant la formation et arrête la formation lorsque les performances de validation commencent à se dégrader. Cela empêche le modèle de continuer à trop bien apprendre les données de formation et de perdre sa capacité de généralisation. L'arrêt précoce est une forme simple mais efficace de régularisation.

Applications dans le monde réel

La régularisation est largement appliquée dans divers domaines de l'IA et de l'apprentissage automatique pour améliorer les performances et la fiabilité des modèles. Voici quelques exemples :

  • Classification d'images : Dans les tâches de classification d'images utilisant les modèles Ultralytics YOLO , la régularisation L2 est souvent employée dans la fonction de perte pour empêcher l'ajustement excessif, en particulier lors de l'entraînement sur des ensembles de données plus petits. Des techniques comme le réglage des hyperparamètres peuvent être utilisées pour trouver la force de régularisation optimale, en équilibrant la précision et la généralisation.
  • Traitement du langage naturel (NLP) : Lors de l'utilisation de modèles pour l'analyse des sentiments ou la génération de texte, la régularisation de l'abandon peut être cruciale pour empêcher les réseaux neuronaux complexes de mémoriser le texte d'apprentissage et d'apprendre à la place des modèles linguistiques plus généraux. Cela permet d'obtenir des modèles qui sont plus aptes à comprendre et à générer de nouveaux textes inédits.

En appliquant des techniques de régularisation, les praticiens de l'apprentissage automatique peuvent construire des modèles d'IA plus robustes, plus fiables et plus généralisables qui fonctionnent efficacement dans les applications du monde réel. Une exploration plus poussée de techniques telles que l'augmentation des données parallèlement à la régularisation peut encore améliorer les performances et la robustesse des modèles.

Tout lire