Glosario

Normalización

Descubra el poder de la normalización en el aprendizaje automático. Descubra cómo mejora el entrenamiento de modelos, aumenta el rendimiento y garantiza la solidez de las soluciones de IA.

La normalización es una técnica crucial de preprocesamiento de datos en el aprendizaje automático (AM) y la inteligencia artificial (IA). Consiste en transformar las características numéricas de un conjunto de datos a una escala común sin distorsionar las diferencias en sus rangos. Este proceso de escalado es vital para el rendimiento y la estabilidad de muchos algoritmos, especialmente los que son sensibles a la magnitud de los valores de entrada, como los métodos de optimización basados en gradientes utilizados en el entrenamiento de redes neuronales (NN). Al garantizar que todas las características contribuyen proporcionalmente al proceso de aprendizaje del modelo, la normalización ayuda a acelerar el entrenamiento y a mejorar la precisión general del modelo.

¿Por qué es importante la normalización?

Sin normalización, las características con escalas mayores pueden dominar el proceso de aprendizaje de un modelo. Por ejemplo, en un conjunto de datos para predecir el precio de la vivienda, una característica como "metros cuadrados" (por ejemplo, 1000-3000) tendría un rango mucho mayor que "número de dormitorios" (por ejemplo, 2-5). Esta discrepancia puede hacer que algoritmos como el de descenso gradiente tarden más en converger o se atasquen en óptimos locales. La normalización mitiga esta situación al poner todas las características en igualdad de condiciones, lo que conduce a:

  • Convergencia más rápida: Los modelos se entrenan más rápido porque el algoritmo de optimización puede navegar por el panorama de pérdidas de forma más eficiente.
  • Mejora del rendimiento: Es esencial para los algoritmos que utilizan medidas de distancia, como k-Nearest Neighbors (k-NN), o los que se basan en actualizaciones de gradiente, como las redes neuronales convolucionales (CNN).
  • Reducción del riesgo de inestabilidad numérica: Ayuda a prevenir problemas como la explosión de gradientes durante el proceso de retropropagación.
  • Contribución coherente de los rasgos: Garantiza que ningún rasgo influya desproporcionadamente en el modelo simplemente debido a su escala. Se trata de un aspecto clave de una ingeniería de elementos adecuada.

Normalización frente a estandarización frente a normalización por lotes

Aunque a menudo se utilizan indistintamente, la normalización y la estandarización son técnicas distintas. También es importante distinguir la normalización de datos de la normalización por lotes.

  • Normalización (Escala Mín-Máx): Esta técnica escala los datos a un rango fijo, normalmente. Es útil cuando la distribución de los datos no es gaussiana o cuando el algoritmo no asume ninguna distribución específica. Es un paso habitual en el preprocesamiento de datos.
  • Normalización (Normalización Z-score): Esta técnica reescala los datos para que tengan una media de 0 y una desviación estándar de 1. A diferencia del escalado mín-máx, no tiene un rango límite. La normalización suele preferirse cuando los datos siguen una distribución gaussiana, y se ve menos afectada por los valores atípicos.
  • Normalización por lotes: No se trata de un paso de preprocesamiento de datos, sino de una capa utilizada dentro de un modelo de aprendizaje profundo. Normaliza las entradas a una capa para cada minilote durante el entrenamiento. Esto ayuda a combatir el desplazamiento interno de covariables, estabilizando y acelerando el entrenamiento de redes profundas. Es un componente estándar en muchas arquitecturas modernas, incluidos los modelos YOLO de Ultralytics, y se implementa en marcos como PyTorch y TensorFlow.

Aplicaciones de la normalización

La normalización es una práctica habitual en diversos ámbitos, especialmente en la visión por ordenador (CV). Plataformas como Ultralytics HUB agilizan los flujos de trabajo en los que este preprocesamiento es esencial para entrenar modelos de alto rendimiento.

  • Preprocesamiento de datos de imagen: En visión por computador, las imágenes se componen de valores de píxeles, que normalmente van de 0 a 255. Antes de introducir una imagen en un modelo para tareas como la clasificación de imágenes o la detección de objetos, estos valores de píxeles casi siempre se normalizan. Escalarlos a un rango [-1, 1] garantiza la coherencia entre todas las imágenes de un conjunto de datos, lo que es fundamental para que modelos como YOLO11 aprendan características de forma eficaz.
  • Análisis de imágenes médicas: En campos como la IA en la atención sanitaria, las exploraciones médicas como las resonancias magnéticas o los TAC a menudo proceden de diferentes máquinas con distintos ajustes, lo que da lugar a diferentes escalas de intensidad. Cuando se utiliza la IA para la detección de tumores, la normalización de estas exploraciones es un paso fundamental. Garantiza que el análisis del modelo sea comparable en diferentes pacientes y equipos, lo que conduce a predicciones de diagnóstico más fiables y precisas. Se trata de un concepto fundamental en el análisis de imágenes médicas.
  • Modelos predictivos en finanzas: Cuando se crean modelos para predecir los precios de las acciones o evaluar el riesgo crediticio, los conjuntos de datos suelen incluir características con escalas muy diferentes, como el volumen de negociación (en millones) y la relación precio-ganancias (por ejemplo, 10-50). Normalizar estas características es esencial para los algoritmos basados en distancias y garantiza que el aprendizaje basado en gradientes no se vea sesgado por características con magnitudes mayores, una práctica habitual en la visión por ordenador en finanzas.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles