Mejora la precisión y solidez de los modelos de IA con el suavizado de etiquetas, una técnica probada para mejorar la generalización y reducir el exceso de confianza.
El suavizado de etiquetas es una técnica de regularización utilizada durante el entrenamiento de modelos de clasificación en el aprendizaje automático (AM) y el aprendizaje profundo (AD). Su objetivo principal es evitar que el modelo se confíe demasiado en sus predicciones. En lugar de entrenar el modelo utilizando etiquetas "duras" (en las que a la clase correcta se le asigna una probabilidad de 1 y a todas las demás clases 0), el suavizado de etiquetas utiliza etiquetas "blandas". Esto significa que a la clase correcta se le asigna una probabilidad ligeramente inferior (por ejemplo, 0,9), y la pequeña probabilidad restante se distribuye uniformemente entre las clases incorrectas. Esta técnica anima al modelo a estar menos seguro de sus predicciones, lo que puede conducir a una mejor generalización y a un mejor rendimiento en datos no vistos. Se discutió especialmente en el artículo Repensar la arquitectura de inicio.
En las tareas de clasificación estándar, los modelos suelen entrenarse utilizando una función de pérdida como la entropía cruzada, que penaliza al modelo en función de lo lejos que esté su distribución de probabilidad predicha de la distribución objetivo (etiquetas duras). Con las etiquetas duras, se presiona al modelo para que la probabilidad de salida de la clase correcta sea extremadamente cercana a 1 y las demás cercanas a 0. Esto puede llevar a un sobreajuste, en el que el modelo aprende demasiado bien los datos de entrenamiento, incluido su ruido, y obtiene malos resultados con los datos nuevos. El suavizado de etiquetas modifica las etiquetas objetivo asignando un pequeño valor de probabilidad (épsilon) a las clases incorrectas y reduciendo la probabilidad de la clase correcta en la cantidad total distribuida. Esto evita que el modelo produzca valores logit excesivamente grandes para la clase correcta, promoviendo un modelo menos confiado y potencialmente más robusto.
El suavizado de etiquetas es ampliamente aplicable, sobre todo en tareas de clasificación de distintos dominios:
Aunque generalmente es beneficioso, el suavizado de etiquetas puede ralentizar ligeramente la convergencia del modelo durante el entrenamiento. El alcance de su beneficio también puede depender del conjunto de datos y de la arquitectura del modelo. El propio factor de suavizado (épsilon) es un hiperparámetro que puede requerir un ajuste para obtener resultados óptimos. A menudo se integra en los conductos de entrenamiento de los marcos y plataformas modernos, como Ultralytics HUB.