Evita el sobreajuste y mejora la generalización del modelo con técnicas de regularización como L1, L2, abandono y parada temprana. Más información
La regularización es un conjunto de técnicas utilizadas en el Aprendizaje Automático (AM ) para evitar un problema común llamado sobreajuste. El sobreajuste se produce cuando un modelo aprende demasiado bien los datos de entrenamiento, incluyendo su ruido y fluctuaciones aleatorias, lo que repercute negativamente en el rendimiento del modelo sobre datos nuevos no vistos. Los métodos de regularización introducen una penalización por la complejidad del modelo, animando a éste a aprender patrones más sencillos que se generalicen mejor a los nuevos datos. Esto es crucial para construir modelos de IA robustos, incluidos los utilizados en la visión por ordenador (VC) y el procesamiento del lenguaje natural (PLN).
La regularización es fundamental para entrenar modelos ML fiables, sobre todo los complejos, como los modelos de aprendizaje profundo (DL) y las redes neuronales (NN). Sin regularización, estos modelos pueden memorizar fácilmente los datos de entrenamiento en lugar de aprender los patrones subyacentes. Esto conduce a una alta precisión en el conjunto de entrenamiento, pero a un rendimiento pobre en los datos de validación o en las entradas del mundo real. Al añadir un término de penalización a la función de pérdida, la regularización ayuda a controlar la magnitud de los pesos del modelo, simplificando eficazmente el modelo y mejorando su capacidad de generalización. Este equilibrio entre ajustarse a los datos y mantener la simplicidad se discute a menudo en el contexto del equilibrio sesgo-varianza. Para modelos como Ultralytics YOLOla regularización contribuye a lograr una gran precisión en tareas exigentes como la detección de objetos en tiempo real.
Se utilizan ampliamente varias técnicas de regularización:
La regularización es distinta de otros conceptos importantes del ML:
Las técnicas de regularización son esenciales para el éxito práctico de muchas aplicaciones de IA:
En la clasificación de imágenes, las redes neuronales profundas como las CNN pueden tener millones de parámetros. Sin regularización (como Dropout o L2), estos modelos pueden sobreajustarse fácilmente a conjuntos de datos como ImageNet. La regularización ayuda a garantizar que el modelo aprenda características visuales generales (bordes, texturas, formas) en lugar de memorizar imágenes de entrenamiento específicas, lo que conduce a una mayor precisión de clasificación en nuevas imágenes encontradas en aplicaciones que van desde el análisis de imágenes médicas a la conducción autónoma. Mira cómo se aborda el sobreajuste en los proyectos de visión por ordenador.
En tareas de PNL como el análisis de sentimientos o la traducción automática, los modelos como los Transformadores también pueden sufrir de sobreajuste, especialmente con datos de entrenamiento limitados. Se aplican técnicas de regularización, como el abandono y el decaimiento del peso (L2), para evitar que el modelo dependa demasiado de palabras o frases específicas presentes sólo en el corpus de entrenamiento. Esto mejora la capacidad del modelo para comprender y generar lenguaje humano de forma más eficaz en escenarios del mundo real, como chatbots o herramientas de resumen de contenidos.