Glosario

Regularización

Descubre cómo las técnicas de regularización como L1, L2, abandono y parada temprana evitan el sobreajuste, asegurando modelos ML robustos.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

La regularización es una técnica crucial en el aprendizaje automático (AM) y el aprendizaje profundo (AD) que se utiliza para evitar el sobreajuste, que se produce cuando un modelo aprende demasiado bien los datos de entrenamiento, incluidos el ruido y los valores atípicos. Esto puede conducir a una mala generalización en datos nuevos y desconocidos. La regularización introduce restricciones o penalizaciones adicionales en el proceso de aprendizaje del modelo, animándole a aprender patrones más simples que tengan más probabilidades de generalizar bien. Al añadir un término de regularización a la función de pérdida, se disuade al modelo de confiar demasiado en una sola característica o de asignar pesos excesivamente grandes a las características.

Tipos de regularización

Hay varios tipos de técnicas de regularización, cada una con su propio enfoque para controlar la complejidad del modelo. Dos de los tipos más comunes son la regularización L1 y L2.

  • Regularización L1 (Regresión Lasso): Esta técnica añade una penalización igual al valor absoluto de la magnitud de los coeficientes. Puede dar lugar a modelos dispersos en los que algunos coeficientes se convierten exactamente en cero, realizando eficazmente la selección de características. Más información sobre la ingeniería de rasgos.
  • Regularización L2 (Regresión Ridge): Esta técnica añade una penalización igual al cuadrado de la magnitud de los coeficientes. Tiende a reducir los coeficientes hacia cero, pero no los hace exactamente cero. Explora más sobre algoritmos de optimización.

Otras técnicas de regularización son

  • Descartar: Esta técnica elimina aleatoriamente (pone a cero) una proporción de neuronas durante cada iteración de entrenamiento, forzando a la red a aprender características más robustas que no dependan de la presencia de neuronas específicas.
  • Detención temprana: Consiste en controlar el rendimiento del modelo en un conjunto de datos de validación y detener el proceso de entrenamiento cuando el rendimiento empieza a degradarse, lo que indica que el modelo está empezando a sobreajustarse.
  • Aumento de datos: Esta técnica aumenta artificialmente el tamaño del conjunto de datos de entrenamiento aplicando transformaciones aleatorias a los datos existentes, como rotaciones, giros o recortes en el caso de los datos de imágenes. Más información sobre el aumento de datos.

Importancia de la regularización

La regularización desempeña un papel vital en la construcción de modelos ML robustos y generalizables. Sin regularización, los modelos son más propensos al sobreajuste, sobre todo cuando se trata de datos de alta dimensión o arquitecturas de modelos complejas, como las redes neuronales profundas. Al controlar la complejidad del modelo, la regularización ayuda a mejorar la capacidad del modelo para hacer predicciones precisas sobre datos nuevos y desconocidos. Esto es crucial para las aplicaciones del mundo real, donde el modelo se desplegará en entornos que pueden diferir del entorno de entrenamiento.

Aplicaciones de la regularización

La regularización se utiliza en una amplia gama de aplicaciones de ML, entre las que se incluyen:

Ejemplos de aplicaciones AI/ML en el mundo real

  1. Diagnóstico médico: En sanidad, los modelos de IA se utilizan para analizar imágenes médicas como radiografías o resonancias magnéticas para la detección de anomalías y el diagnóstico. Las técnicas de regularización, como el abandono y la regularización L2, se aplican a las CNN para garantizar que los modelos no sobreajusten los datos de entrenamiento y puedan identificar con precisión posibles problemas de salud en las exploraciones de nuevos pacientes. Para más información, consulta cómo la IA está transformando la radiología.
  2. Coches autónomos: Los vehículos autónomos dependen en gran medida de los modelos de visión por ordenador para la detección de objetos, la detección de carriles y la comprensión de la escena. Se emplean métodos de regularización, como el aumento de datos y la detención temprana, para entrenar modelos robustos que puedan generalizarse bien a diversas condiciones y entornos de conducción. Más información sobre la IA de visión en la conducción autónoma.

Regularización y términos relacionados

La regularización está estrechamente relacionada con otros conceptos del ML, como el equilibrio entre sesgo y varianza, el sobreajuste y el infraajuste. Aunque la regularización ayuda a evitar el sobreajuste controlando la complejidad del modelo, es importante encontrar un equilibrio entre sesgo y varianza. Un modelo demasiado simple puede no ajustarse a los datos, mientras que un modelo demasiado complejo puede ajustarse en exceso. A menudo se utiliza el ajuste de hiperparámetros para encontrar el nivel óptimo de regularización para un modelo y un conjunto de datos determinados.

Conclusión

La regularización es una técnica esencial en el conjunto de herramientas del profesional del ML. Al comprender y aplicar diversos métodos de regularización, los profesionales pueden construir modelos más robustos y generalizables que funcionen bien con datos nuevos y desconocidos. Tanto si trabajas con datos de imágenes, datos de texto u otros tipos de datos, la regularización puede ayudarte a mejorar el rendimiento y la fiabilidad de tus modelos de ML. Para obtener más información sobre la visión por ordenador y los modelos más avanzados, como Ultralytics YOLO , visita el BlogUltralytics .

Leer todo