Glossaire

Normalisation

Découvre la puissance de la normalisation dans l'apprentissage automatique ! Apprends comment elle améliore la formation des modèles, booste les performances et garantit des solutions d'IA robustes.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

La normalisation est une technique de prétraitement cruciale en apprentissage automatique et en science des données, utilisée pour remettre les données à l'échelle dans une fourchette standard, généralement comprise entre 0 et 1, ou entre -1 et 1. Ce processus vise à garantir que toutes les caractéristiques contribuent de manière égale à l'apprentissage du modèle, en empêchant les caractéristiques ayant des valeurs plus importantes de dominer celles qui ont des valeurs plus petites. En ramenant différentes caractéristiques sur une échelle similaire, la normalisation aide les algorithmes, en particulier ceux qui sont sensibles à la mise à l'échelle des caractéristiques comme les méthodes basées sur la descente de gradient utilisées dans l'apprentissage profond, à converger plus rapidement et plus efficacement.

Pourquoi la normalisation est-elle importante ?

Dans les ensembles de données, les caractéristiques ont souvent des portées variables. Par exemple, dans un ensemble de données prédisant les prix des maisons, la taille d'une maison peut varier de 500 à 5000 pieds carrés, alors que le nombre de chambres à coucher ne peut varier que de 1 à 5. Sans normalisation, les modèles d'apprentissage automatique risquent d'accorder une importance excessive aux caractéristiques dont l'étendue est plus grande. La normalisation permet de résoudre ce problème, en garantissant que toutes les caractéristiques sont traitées de manière uniforme pendant la formation. Cela permet d'obtenir des modèles plus stables et plus robustes, d'améliorer les performances et d'accélérer les temps de formation, en particulier pour les algorithmes tels que les réseaux neuronaux utilisés dans les modèles Ultralytics YOLO .

Types de normalisation

Plusieurs techniques de normalisation sont couramment utilisées :

  • Échelle Min-Max : C'est l'une des techniques les plus courantes. Elle met à l'échelle et traduit chaque caractéristique individuellement de façon à ce qu'elle soit comprise dans l'intervalle [0, 1]. Tu peux en savoir plus sur la mise à l'échelle Min-Max sur le site Web de Scikit-learn, une bibliothèque d'apprentissage automatique très populaire sur Python.
  • Normalisation du score Z : Bien qu'il s'agisse techniquement d'une normalisation, elle est souvent utilisée de façon interchangeable avec la normalisation. La normalisation du score Z transforme les données de manière à ce qu'elles aient une moyenne de 0 et un écart-type de 1. Cette méthode est moins sensible aux valeurs aberrantes que l'échelonnement Min-Max.
  • Échelle Abs Max : Cette méthode met à l'échelle chaque caractéristique par sa valeur absolue maximale. Elle est particulièrement utile pour les données éparses et garantit que les valeurs restent dans l'intervalle [-1, 1].

Le choix de la technique de normalisation appropriée dépend de l'ensemble de données et du modèle d'apprentissage automatique utilisé. Pour de nombreuses applications d'apprentissage profond, notamment l'entraînement des modèles Ultralytics YOLO pour la détection d'objets, la normalisation est une étape de prétraitement standard.

Applications de la normalisation

La normalisation est largement appliquée dans divers domaines de l'IA et de la ML. Voici quelques exemples :

  • Traitement des images : Dans le domaine de la vision par ordinateur, les images sont souvent représentées par des valeurs de pixels allant de 0 à 255. La normalisation de ces valeurs de pixels dans une plage comprise entre 0 et 1 est une pratique courante avant de les introduire dans un réseau neuronal convolutif (CNN). Cela peut améliorer la capacité du modèle à apprendre les caractéristiques des images, ce qui permet d'améliorer des tâches telles que la détection d'objets à l'aide de Ultralytics YOLOv8 ou la classification d'images. Envisage d'explorer comment le prétraitement des données annotées est crucial dans les projets de vision par ordinateur pour une performance optimale du modèle.
  • Analyse d'images médicales : Dans l'analyse d'images médicales, la normalisation est essentielle pour standardiser les plages d'intensité des images provenant de différents scanners ou patients. Cette normalisation est cruciale pour que les modèles d'IA puissent détecter avec précision les anomalies ou les maladies, quelle que soit la source de l'image médicale. Par exemple, dans la détection des tumeurs cérébrales à l'aide de Ultralytics YOLO11 en imagerie médicale, une normalisation cohérente garantit la robustesse et la fiabilité du modèle dans divers ensembles de données.

En résumé, la normalisation est une étape fondamentale dans la préparation des données pour l'apprentissage automatique. Elle garantit une contribution équitable de toutes les caractéristiques, accélère la formation et améliore la stabilité et les performances des modèles d'IA dans diverses applications, y compris celles alimentées par Ultralytics YOLO .

Tout lire