Empêche le surajustement et améliore la généralisation du modèle grâce à des techniques de régularisation telles que L1, L2, dropout et early stopping. En savoir plus !
La régularisation est un ensemble de techniques utilisées dans l'apprentissage automatique (ML) pour prévenir un problème courant appelé surajustement. L'overfitting se produit lorsqu'un modèle apprend trop bien les données d'apprentissage, y compris son bruit et ses fluctuations aléatoires, ce qui a un impact négatif sur les performances du modèle sur de nouvelles données inédites. Les méthodes de régularisation introduisent une pénalité pour la complexité du modèle, encourageant le modèle à apprendre des modèles plus simples qui se généralisent mieux aux nouvelles données. Ceci est crucial pour construire des modèles d'IA robustes, y compris ceux utilisés dans la vision artificielle (CV) et le traitement du langage naturel (NLP).
La régularisation est fondamentale pour former des modèles ML fiables, en particulier des modèles complexes comme les modèles d'apprentissage profond (DL) et les réseaux neuronaux (NN). Sans régularisation, ces modèles peuvent facilement mémoriser les données d'entraînement plutôt que d'apprendre les modèles sous-jacents. Cela conduit à une grande précision sur l'ensemble d'entraînement mais à de mauvaises performances sur les données de validation ou les entrées du monde réel. En ajoutant un terme de pénalité à la fonction de perte, la régularisation permet de contrôler l'ampleur des poids du modèle, ce qui simplifie effectivement le modèle et améliore sa capacité de généralisation. Cet équilibre entre l'adaptation aux données et le maintien de la simplicité est souvent discuté dans le contexte du compromis biais-variance. Pour les modèles comme Ultralytics YOLOla régularisation contribue à atteindre une grande précision dans des tâches exigeantes comme la détection d'objets en temps réel.
Plusieurs techniques de régularisation sont largement utilisées :
La régularisation se distingue d'autres concepts importants de la ML :
Les techniques de régularisation sont essentielles à la réussite pratique de nombreuses applications d'intelligence artificielle :
En classification d'images, les réseaux neuronaux profonds comme les CNN peuvent avoir des millions de paramètres. Sans régularisation (comme Dropout ou L2), ces modèles peuvent facilement s'adapter de façon excessive à des ensembles de données comme ImageNet. La régularisation permet de s'assurer que le modèle apprend des caractéristiques visuelles générales (bords, textures, formes) plutôt que de mémoriser des images d'entraînement spécifiques, ce qui conduit à une meilleure précision de classification sur de nouvelles images rencontrées dans des applications allant de l'analyse d'images médicales à la conduite autonome. Vois comment l'overfitting est abordé dans les projets de vision par ordinateur.
Dans les tâches NLP telles que l'analyse des sentiments ou la traduction automatique, les modèles comme Transformers peuvent également souffrir d'un surajustement, en particulier avec des données d'entraînement limitées. Des techniques de régularisation, notamment l'abandon et la décroissance du poids (L2), sont appliquées pour empêcher le modèle de s'appuyer trop fortement sur des mots ou des phrases spécifiques présents uniquement dans le corpus de formation. Cela améliore la capacité du modèle à comprendre et à générer du langage humain plus efficacement dans des scénarios réels tels que les chatbots ou les outils de résumé de contenu.