Glosario

Normalización

¡Descubre el poder de la normalización en el aprendizaje automático! Aprende cómo mejora el entrenamiento de los modelos, aumenta el rendimiento y garantiza la solidez de las soluciones de IA.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

La normalización es una técnica de preprocesamiento crucial en el aprendizaje automático y la ciencia de datos que se utiliza para reescalar los datos a un rango estándar, normalmente entre 0 y 1, o -1 y 1. Este proceso pretende garantizar que todas las características contribuyan por igual al entrenamiento del modelo, evitando que las características con valores más grandes dominen a las que tienen valores más pequeños. Al poner las diferentes características en una escala similar, la normalización ayuda a los algoritmos, especialmente a los sensibles a la escala de las características, como los métodos basados en el descenso de gradiente utilizados en el aprendizaje profundo, a converger más rápida y eficientemente.

Por qué es importante la normalización

En los conjuntos de datos, las características suelen tener rangos variables. Por ejemplo, en un conjunto de datos que predice el precio de la vivienda, el tamaño de una casa puede oscilar entre 500 y 5000 pies cuadrados, mientras que el número de habitaciones puede variar sólo entre 1 y 5. Sin normalización, los modelos de aprendizaje automático podrían dar una importancia indebida a las características con rangos más amplios. Sin normalización, los modelos de aprendizaje automático podrían dar una importancia indebida a las características con rangos mayores. La normalización aborda este problema, garantizando que todas las características se traten de manera uniforme durante el entrenamiento. Esto da lugar a modelos más estables y robustos, un mejor rendimiento y tiempos de entrenamiento más rápidos, sobre todo para algoritmos como las redes neuronales utilizadas en los modelos de Ultralytics YOLO .

Tipos de normalización

Se suelen utilizar varias técnicas de normalización:

  • Escalado Mín-Máx: Es una de las técnicas más habituales. Escala y traduce cada característica individualmente de modo que se encuentre en el intervalo [0, 1]. Puedes obtener más información sobre el escalado Min-Max en el sitio web de Scikit-learn, una popular biblioteca de aprendizaje automático en Python.
  • Normalización de la puntuación Z: Aunque técnicamente es normalización, a menudo se utiliza indistintamente con normalización. La normalización de la puntuación Z transforma los datos para que tengan una media de 0 y una desviación típica de 1. Este método es menos sensible a los valores atípicos que el escalado Mín-Máx.
  • Escala Abs Máx: Este método escala cada característica por su valor absoluto máximo. Es especialmente útil para datos dispersos y garantiza que los valores permanezcan dentro del intervalo [-1, 1].

La elección de la técnica de normalización adecuada depende del conjunto de datos y del modelo de aprendizaje automático que se utilice. Para muchas aplicaciones de aprendizaje profundo, incluido el entrenamiento de modelos Ultralytics YOLO para la detección de objetos, la normalización es un paso estándar del preprocesamiento.

Aplicaciones de la normalización

La normalización se aplica ampliamente en varios dominios dentro de la IA y el ML. He aquí un par de ejemplos:

  • Procesamiento de imágenes: En visión por ordenador, las imágenes suelen representarse como valores de píxeles que van de 0 a 255. Normalizar estos valores de píxel a un rango entre 0 y 1 es una práctica habitual antes de introducirlos en una Red Neuronal Convolucional (CNN). Esto puede aumentar la capacidad del modelo para aprender características de las imágenes, mejorando tareas como la detección de objetos mediante Ultralytics YOLOv8 o la clasificación de imágenes. Considera la posibilidad de explorar cómo el preprocesamiento de los datos anotados es crucial en los proyectos de visión por ordenador para un rendimiento óptimo del modelo.
  • Análisis de imágenes médicas: En el análisis de imágenes médicas, la normalización es fundamental para estandarizar los rangos de intensidad de las imágenes de distintos escáneres o pacientes. Esta normalización es crucial para que los modelos de IA detecten con precisión anomalías o enfermedades, independientemente de la fuente de la imagen médica. Por ejemplo, en la detección de tumores cerebrales mediante Ultralytics YOLO11 en imágenes médicas, una normalización coherente garantiza que el modelo sea sólido y fiable en diversos conjuntos de datos.

En resumen, la normalización es un paso fundamental en la preparación de los datos para el aprendizaje automático. Garantiza una contribución equitativa de todas las características, acelera el entrenamiento y mejora la estabilidad y el rendimiento de los modelos de IA en diversas aplicaciones, incluidas las impulsadas por Ultralytics YOLO .

Leer todo