Cheque verde
Enlace copiado en el portapapeles

¿Qué es el sobreajuste en visión artificial y cómo evitarlo?

Aprende qué es el sobreajuste en visión por ordenador y cómo evitarlo mediante el aumento de datos, la regularización y los modelos preentrenados.

Los modelos de visión por ordenador están diseñados para reconocer patrones, detectar objetos y analizar imágenes. Sin embargo, su rendimiento depende de lo bien que se generalicen a datos no vistos. La generalización es la capacidad del modelo para funcionar bien con nuevas imágenes, no sólo con las que se ha entrenado. Un problema común en el entrenamiento de estos modelos es el sobreajuste, en el que un modelo aprende demasiado de sus datos de entrenamiento, incluyendo ruido innecesario, en lugar de identificar patrones significativos.

Cuando esto ocurre, el modelo funciona bien con los datos de entrenamiento, pero tiene problemas con las imágenes nuevas. Por ejemplo, un modelo de detección de objetos entrenado sólo con imágenes de alta resolución y bien iluminadas puede fallar cuando se le presentan imágenes borrosas o con sombras en condiciones reales. El sobreajuste limita la adaptabilidad de un modelo, lo que limita su uso en aplicaciones del mundo real como la conducción autónoma, las imágenes médicas y los sistemas de seguridad.

En este artículo exploraremos qué es el sobreajuste, por qué se produce y cómo evitarlo. También veremos cómo los modelos de visión por ordenador como Ultralytics YOLO11 ayudan a reducir el sobreajuste y a mejorar la generalización.

¿Qué es el sobreajuste?

La sobreadaptación se produce cuando un modelo memoriza los datos de entrenamiento en lugar de aprender patrones que se apliquen ampliamente a las nuevas entradas. El modelo se centra demasiado en los datos de entrenamiento, por lo que tiene dificultades con nuevas imágenes o situaciones que no ha visto antes.

En visión por ordenador, el sobreajuste puede afectar a distintas tareas. Un modelo de clasificación entrenado sólo con imágenes claras y brillantes puede tener problemas en condiciones de poca luz. Un modelo de detección de objetos que aprende de imágenes perfectas puede fallar en escenas abarrotadas o desordenadas. Del mismo modo, un modelo de segmentación de instancias puede funcionar bien en entornos controlados, pero tener problemas con sombras u objetos superpuestos.

Esto se convierte en un problema en las aplicaciones de IA del mundo real, donde los modelos deben ser capaces de generalizar más allá de las condiciones de entrenamiento controladas. Los coches autoconducidos, por ejemplo, deben ser capaces de detectar peatones en diferentes condiciones de luz, tiempo y entorno. Un modelo que se ajuste en exceso a su conjunto de entrenamiento no funcionará de forma fiable en escenarios tan impredecibles.

¿Cuándo y por qué se produce el sobreajuste?

El sobreajuste suele deberse a conjuntos de datos desequilibrados, a la excesiva complejidad del modelo y al sobreentrenamiento. Estas son las causas principales:

  • Datos de entrenamiento limitados: Los conjuntos de datos pequeños hacen que los modelos memoricen patrones en lugar de generalizarlos. Un modelo entrenado con sólo 50 imágenes de aves puede tener dificultades para detectar especies de aves fuera de ese conjunto de datos.

  • Modelos complejos con demasiados parámetros: Las redes profundas con excesivas capas y neuronas tienden a memorizar detalles finos en lugar de centrarse en las características esenciales.

  • Falta de aumento de datos: Sin transformaciones como recortar, voltear o rotar, un modelo sólo puede aprender de sus imágenes exactas de entrenamiento.

  • Entrenamiento prolongado: Si un modelo pasa demasiadas veces por los datos de entrenamiento, lo que se conoce como épocas, memoriza detalles en lugar de aprender patrones generales, lo que le hace menos adaptable.

  • Etiquetas incoherentes o ruidosas: Los datos etiquetados incorrectamente hacen que un modelo aprenda patrones erróneos. Esto es habitual en los conjuntos de datos etiquetados manualmente.

Un enfoque bien equilibrado de la complejidad del modelo, la calidad del conjunto de datos y las técnicas de entrenamiento garantiza una mejor generalización.

Sobreadaptación vs. inadaptación

El sobreajuste y el infraajuste son dos cuestiones completamente polares en el aprendizaje profundo.

__wf_reserved_inherit
Fig. 1. Comparación de la inadaptación, el aprendizaje óptimo y la sobreadaptación en los modelos de visión por ordenador.

La sobreadaptación se produce cuando un modelo es demasiado complejo, lo que hace que se centre demasiado en los datos de entrenamiento. En lugar de aprender patrones generales, memoriza pequeños detalles, incluso irrelevantes como el ruido de fondo. Esto hace que el modelo funcione bien con los datos de entrenamiento, pero tenga problemas con las imágenes nuevas, lo que significa que no ha aprendido realmente a reconocer patrones que se aplican en situaciones diferentes.

La inadaptación ocurre cuando un modelo es demasiado básico, por lo que pasa por alto patrones importantes en los datos. Esto puede ocurrir cuando el modelo tiene muy pocas capas, no tiene suficiente tiempo de entrenamiento o los datos son limitados. Como resultado, no reconoce patrones importantes y hace predicciones inexactas. Esto conduce a un rendimiento deficiente tanto en los datos de entrenamiento como en los de prueba, porque el modelo no ha aprendido lo suficiente para comprender la tarea correctamente. 

Un modelo bien entrenado encuentra el equilibrio entre complejidad y generalización. Debe ser lo suficientemente complejo como para aprender patrones relevantes, pero no tanto como para memorizar datos en lugar de reconocer las relaciones subyacentes.

Cómo identificar el sobreajuste

He aquí algunas señales que indican que un modelo está sobreajustado:

  • Si la precisión del entrenamiento es significativamente mayor que la de la validación, es probable que el modelo esté sobreajustado.
  • Una diferencia cada vez mayor entre la pérdida de entrenamiento y la pérdida de validación es otro indicador importante.
  • El modelo confía demasiado en las respuestas erróneas, lo que demuestra que memorizó detalles en lugar de comprender patrones.

Para garantizar que un modelo generaliza bien, es necesario probarlo en diversos conjuntos de datos que reflejen las condiciones del mundo real.

Cómo evitar el sobreajuste en visión artificial

El sobreajuste no es inevitable y puede evitarse. Con las técnicas adecuadas, los modelos de visión por ordenador pueden aprender patrones generales en lugar de memorizar datos de entrenamiento, lo que los hace más fiables en las aplicaciones del mundo real. 

He aquí cinco estrategias clave para evitar el sobreajuste en la visión por ordenador.

Aumenta la diversidad de datos con datos aumentados y sintéticos

La mejor forma de ayudar a que un modelo funcione bien con datos nuevos es ampliando el conjunto de datos mediante el aumento de datos y los datos sintéticos. Los datos sintéticos se generan por ordenador en lugar de recogerse de imágenes del mundo real. Ayudan a rellenar huecos cuando no hay suficientes datos reales.

__wf_reserved_inherit
Fig. 2. La combinación de datos del mundo real y sintéticos reduce el sobreajuste y mejora la precisión en la detección de objetos.

El aumento de datos modifica ligeramente las imágenes existentes volteándolas, rotándolas, recortándolas o ajustando el brillo, de modo que el modelo no se limita a memorizar detalles, sino que aprende a reconocer objetos en situaciones diferentes.

Los datos sintéticos son útiles cuando es difícil obtener imágenes reales. Por ejemplo, los modelos de coches autoconducidos pueden entrenarse en escenas de carretera generadas por ordenador para aprender a detectar objetos en diferentes condiciones meteorológicas y de iluminación. Esto hace que el modelo sea más flexible y fiable sin necesidad de miles de imágenes del mundo real.

Optimizar la complejidad y la arquitectura del modelo

Una red neuronal profunda, que es un tipo de modelo de aprendizaje automático que tiene muchas capas que procesan datos en lugar de una sola capa, no siempre es mejor. Cuando un modelo tiene demasiadas capas o parámetros, memoriza los datos de entrenamiento en lugar de reconocer patrones más amplios. Reducir la complejidad innecesaria puede ayudar a evitar el sobreajuste.

Para conseguirlo, un enfoque es la poda, que elimina las neuronas y conexiones redundantes, haciendo que el modelo sea más delgado y eficiente. 

Otra es simplificar la arquitectura reduciendo el número de capas o neuronas. Los modelos preentrenados como YOLO11 están diseñados para generalizar bien entre tareas con menos parámetros, lo que los hace más resistentes al sobreajuste que entrenar un modelo profundo desde cero.

Encontrar el equilibrio adecuado entre la profundidad y la eficacia del modelo le ayuda a aprender patrones útiles sin limitarse a memorizar datos de entrenamiento.

Aplicar técnicas de regularización

Las técnicas de regularización evitan que los modelos dependan demasiado de características específicas de los datos de entrenamiento. He aquí algunas técnicas de uso común:

  • El abandono desactiva partes aleatorias del modelo durante el entrenamiento para que aprenda a reconocer diferentes patrones en lugar de depender demasiado de unas pocas características.

  • El decaimiento del peso (regularización L2) desalienta los valores extremos del peso, manteniendo bajo control la complejidad del modelo.

  • La normalización por lotes ayuda a estabilizar el entrenamiento, garantizando que el modelo sea menos sensible a las variaciones del conjunto de datos.

Estas técnicas ayudan a mantener la flexibilidad y adaptabilidad de un modelo, reduciendo el riesgo de sobreajuste y preservando la precisión.

Supervisar la formación con validación y parada temprana

Para evitar el sobreajuste, es importante hacer un seguimiento de cómo aprende el modelo y asegurarse de que generaliza bien a los nuevos datos. Aquí tienes un par de técnicas que te ayudarán a conseguirlo:

  • Parada anticipada: Finaliza automáticamente el entrenamiento cuando el modelo deja de mejorar, para que no siga aprendiendo detalles innecesarios.

  • Validación cruzada: Divide los datos en partes y entrena el modelo en cada una de ellas. Esto le ayuda a aprender patrones en lugar de memorizar imágenes concretas.

Estas técnicas ayudan al modelo a mantenerse equilibrado, de modo que aprenda lo suficiente para ser preciso sin centrarse demasiado sólo en los datos de entrenamiento.

Utilizar modelos preentrenados y mejorar el etiquetado del conjunto de datos

En lugar de entrenar desde cero, utilizar modelos preentrenados como YOLO11 puede reducir el sobreajuste. YOLO11 está entrenado en conjuntos de datos a gran escala, lo que le permite generalizar bien en diferentes condiciones.

__wf_reserved_inherit
Fig. 3. Los modelos de visión por ordenador preentrenados mejoran la precisión y evitan el sobreajuste.

Afinar un modelo preentrenado le ayuda a mantener lo que ya sabe mientras aprende nuevas tareas, para que no se limite a memorizar los datos de entrenamiento.

Además, es esencial garantizar un etiquetado de alta calidad del conjunto de datos. Los datos mal etiquetados o desequilibrados pueden inducir a los modelos a aprender patrones incorrectos. Limpiar los conjuntos de datos, corregir las imágenes mal etiquetadas y equilibrar las clases mejora la precisión y reduce el riesgo de sobreajuste. Otro enfoque eficaz es el entrenamiento adversario, en el que el modelo se expone a ejemplos ligeramente alterados o más desafiantes, diseñados para poner a prueba sus límites.

Puntos clave

El sobreajuste es un problema común en la visión por ordenador. Un modelo puede funcionar bien con los datos de entrenamiento, pero tener problemas con las imágenes del mundo real. Para evitarlo, técnicas como el aumento de datos, la regularización y el uso de modelos preentrenados como YOLO11 ayudan a mejorar la precisión y la adaptabilidad.

Aplicando estos métodos, los modelos de IA pueden seguir siendo fiables y funcionar bien en distintos entornos. A medida que mejora el aprendizaje profundo, asegurarse de que los modelos generalizan adecuadamente será clave para el éxito de la IA en el mundo real.

¡Únete a nuestra creciente comunidad! Explora nuestro repositorio GitHub para aprender más sobre IA. ¿Estás listo para iniciar tus propios proyectos de visión por ordenador? Consulta nuestras opciones de licencia. Descubre la IA de visión en la conducción autónoma y la IA en la asistencia sanitaria visitando nuestras páginas de soluciones.

Logotipo de LinkedInLogotipo de TwitterLogotipo de FacebookSímbolo de enlace de copia

Leer más en esta categoría

¡Construyamos juntos el futuro
de la IA!

Comienza tu viaje con el futuro del aprendizaje automático