Descubre cómo el suavizado de etiquetas mejora los modelos de aprendizaje automático reduciendo el sobreajuste, mejorando la generalización y aumentando la fiabilidad de las predicciones.
El suavizado de etiquetas es una técnica de regularización utilizada habitualmente en el entrenamiento de modelos de aprendizaje automático, sobre todo en tareas de clasificación. Consiste en modificar las etiquetas verdaderas para que sean menos fiables, sustituyendo la codificación de las etiquetas en un solo paso por una versión suavizada. Este ajuste reduce el exceso de confianza en las predicciones del modelo, mejora la generalización y mitiga el sobreajuste.
En un problema típico de clasificación, la codificación de un solo intento asigna una probabilidad de 1 a la clase correcta y de 0 a todas las demás clases. El suavizado de etiquetas ajusta estas probabilidades redistribuyendo una pequeña fracción de la confianza de la clase correcta a todas las clases. Por ejemplo, en lugar de representar una etiqueta como [1, 0, 0]
el suavizado de etiquetas podría representarlo como [0.9, 0.05, 0.05]
para un factor de suavizado de 0,1.
Al suavizar la verdad sobre el terreno, el modelo evita confiar demasiado en sus predicciones. Esto hace que el modelo sea más robusto, sobre todo en situaciones en las que los datos contienen ruido o son difíciles de clasificar.
El suavizado de etiquetas se utiliza mucho en las tareas de clasificación de imágenes para mejorar la calibración y el rendimiento de los modelos. Por ejemplo, modelos como los entrenados en el conjunto de datos ImageNet para la clasificación de imágenes suelen emplear el suavizado de etiquetas para lograr una mejor generalización y reducir el sobreajuste.
En PNL, el suavizado de etiquetas se utiliza en tareas de secuencia a secuencia, como la traducción automática. Los modelos lingüísticos a gran escala, como BERT (Representaciones Codificadoras Bidireccionales de Transformadores) y los modelos basados en Transformadores, se benefician del suavizado de etiquetas durante el entrenamiento para garantizar un aprendizaje estable y evitar el exceso de confianza en las predicciones.
Coches autónomos: En los sistemas de vehículos autónomos, el suavizado de etiquetas se aplica a modelos entrenados para tareas de clasificación de imágenes y detección de objetos. Por ejemplo, conjuntos de datos como COCO para la detección avanzada de objetos se benefician de esta técnica para mejorar la robustez de modelos como Ultralytics YOLO , muy utilizado en la detección de objetos para sistemas de conducción autónoma.
Diagnóstico médico: En las aplicaciones de imágenes médicas, como la detección de tumores mediante el conjunto de datos de detección de tumores cerebrales, el suavizado de etiquetas mejora la fiabilidad de las predicciones. Reduce el riesgo de que el modelo confíe demasiado en clasificaciones incorrectas, lo que es crítico en dominios de alto riesgo como la asistencia sanitaria.
Ultralytics HUB proporciona una integración perfecta para entrenar modelos de clasificación con suavizado de etiquetas. Tanto si trabajas con conjuntos de datos como CIFAR-10 para la clasificación de imágenes, como con conjuntos de datos personalizados, Ultralytics HUB simplifica el proceso de establecer hiperparámetros, incluidos los factores de suavizado de etiquetas, para optimizar el rendimiento de tu modelo.
El suavizado de etiquetas es una técnica sencilla pero potente que mejora la solidez y fiabilidad de los modelos de aprendizaje automático. Al suavizar las etiquetas objetivo, ayuda a que los modelos generalicen mejor, eviten el sobreajuste y produzcan predicciones bien calibradas. Tanto si trabajas en clasificación de imágenes, PNL o detección de objetos, el suavizado de etiquetas es una herramienta valiosa en tu conjunto de herramientas de aprendizaje automático. Para más información sobre técnicas y aplicaciones relacionadas, explora el glosario de IA y visión por ordenador en Ultralytics.