Glossaire

Normalisation par lots

Booste les performances de l'apprentissage profond avec la normalisation des lots ! Découvre comment cette technique améliore la vitesse d'entraînement, la stabilité et la précision des modèles d'IA.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

La normalisation par lots est une technique utilisée dans l'apprentissage profond pour rendre les réseaux neuronaux artificiels plus rapides et plus stables grâce à l'ajout de couches supplémentaires dans un réseau neuronal profond. La nouvelle couche effectue les opérations de normalisation et de standardisation sur l'entrée d'une couche provenant d'une couche précédente. C'est une méthode qui peut contribuer à améliorer les performances et la stabilité des modèles d'apprentissage profond, en particulier dans les tâches complexes telles que la détection d'objets et la classification d'images. La normalisation par lots est généralement utilisée entre les couches entièrement connectées ou convolutives et les fonctions d'activation. Cette technique a été introduite dans un article de 2015 par les chercheurs Sergey Ioffe et Christian Szegedy sur le site Google .

Comment fonctionne la normalisation par lots

La normalisation par lots fonctionne en normalisant les activations de la couche précédente. Cela signifie que les entrées de la couche suivante auront une moyenne de 0 et un écart type de 1. Ce processus de normalisation permet de réduire le décalage des covariables internes, c'est-à-dire le changement de la distribution des activations du réseau dû à la modification des paramètres du réseau au cours de la formation. En stabilisant les distributions des entrées des couches, la normalisation par lots permet une formation plus rapide et plus stable.

Dans la pratique, la normalisation des lots est réalisée en calculant la moyenne et l'écart-type des activations au sein d'un mini-lot pendant l'entraînement. Ces statistiques sont ensuite utilisées pour normaliser les activations. De plus, deux paramètres apprenables, gamma (γ) et bêta (β), sont introduits pour chaque activation. Ces paramètres permettent au réseau de mettre à l'échelle et de décaler les activations normalisées, ce qui lui donne la souplesse nécessaire pour apprendre la représentation optimale.

Avantages de la normalisation par lots

La normalisation par lots offre plusieurs avantages qui contribuent à son utilisation répandue dans l'apprentissage profond :

  • Formation plus rapide: En normalisant les entrées de chaque couche, la normalisation par lots peut contribuer à accélérer le processus de formation. En effet, elle permet d'utiliser des taux d'apprentissage plus élevés sans risquer de voir les gradients exploser ou disparaître.
  • Amélioration du flux des gradients : la normalisation par lots améliore le flux des gradients dans le réseau, ce qui permet de former des réseaux plus profonds.
  • Dépendance réduite à l'égard de l'initialisation: Les réseaux profonds peuvent être sensibles à l'initialisation des paramètres. La normalisation par lots réduit cette sensibilité, rendant la formation moins dépendante des conditions initiales.
  • Effet de régularisation: la normalisation par lots ajoute une légère quantité de bruit au réseau, ce qui peut avoir un effet de régularisation, réduisant le surajustement et améliorant la généralisation aux données non vues.
  • Taux d'apprentissage plus élevés: Avec la normalisation par lots, des taux d'apprentissage plus élevés peuvent être utilisés sans provoquer d'instabilité dans la formation. Cela permet d'accélérer encore le processus de formation.

Applications de la normalisation par lots

Vision par ordinateur

Dans le domaine de la vision par ordinateur, la normalisation par lots est souvent utilisée dans les réseaux neuronaux convolutifs (CNN) pour améliorer les performances et la stabilité de l'entraînement. Par exemple, dans des modèles comme Ultralytics YOLO , la normalisation par lots est intégrée à l'architecture pour améliorer la précision et la vitesse des tâches de détection d'objets en temps réel. Elle permet de stabiliser le processus d'apprentissage, ce qui conduit à une meilleure convergence et à une meilleure précision de détection.

Traitement du langage naturel (NLP)

Dans le traitement du langage naturel (NLP), la normalisation des lots peut être appliquée aux modèles dotés d'architectures profondes, tels que les Transformers. Elle permet de stabiliser le processus de formation, en particulier lorsqu'il s'agit de grands ensembles de données. Par exemple, dans la traduction automatique ou l'analyse des sentiments, la normalisation par lots assure un apprentissage cohérent entre les couches, ce qui contribue à la performance globale du modèle.

Exemples concrets

Analyse d'images médicales

Dans l'analyse d'images médicales, comme la détection de tumeurs à partir d'IRM ou de tomodensitogrammes, la normalisation des lots aide à stabiliser les modèles d'apprentissage profond. Il en résulte une détection plus fiable des anomalies et des temps de formation plus rapides, ce qui est crucial pour obtenir des diagnostics précis et opportuns.

Véhicules autonomes

La normalisation par lots joue un rôle essentiel dans les systèmes de perception des voitures autonomes. Par exemple, dans les systèmes de véhicules autonomes, elle améliore les performances des modèles de vision par ordinateur qui reconnaissent les panneaux de signalisation, les piétons et les autres véhicules. En améliorant la stabilité et la précision des modèles, la normalisation par lots contribue à rendre les systèmes de conduite autonome plus sûrs et plus fiables.

Concepts apparentés

Normalisation de l'abandon par rapport à la normalisation par lots

Les couches Dropout et la normalisation des lots sont toutes deux des techniques utilisées pour améliorer les performances des modèles d'apprentissage profond, mais elles fonctionnent différemment. Le dropout désactive aléatoirement une fraction de neurones pendant chaque itération de formation, ce qui permet d'éviter l'overfitting. La normalisation par lots, en revanche, normalise les activations de la couche précédente, ce qui permet de stabiliser et d'accélérer la formation. Ces techniques peuvent être utilisées conjointement pour améliorer encore les performances et la robustesse du modèle.

Normalisation en général

La normalisation par lots est une forme de normalisation utilisée dans l'apprentissage profond. Les autres types comprennent la normalisation des instances et la normalisation des couches. La normalisation d'instance normalise les activations de chaque échantillon indépendamment, ce qui est utile dans les tâches de transfert de style. La normalisation des couches normalise les activations à travers les caractéristiques, ce qui est bénéfique dans les réseaux neuronaux récurrents. Comprendre les différences entre ces méthodes de normalisation peut aider à sélectionner la technique appropriée pour des tâches et des architectures spécifiques.

Intégration avec Ultralytics HUB

La normalisation par lots est intégrée de façon transparente dans les cadres d'IA modernes tels que PyTorchLa normalisation par lots est intégrée de façon transparente dans les cadres modernes d'intelligence artificielle, tels que le logiciel de gestion de l'information, qui alimente des outils comme Ultralytics HUB. Cette intégration simplifie le processus de formation et de déploiement de modèles optimisés pour diverses tâches, de la détection d'objets à la segmentation d'images. L'utilisation de la normalisation par lots dans ces cadres garantit que les modèles sont formés efficacement et atteignent des performances élevées dans diverses applications.

Tout lire