Aprende qué es el sobreajuste en visión por ordenador y cómo evitarlo mediante el aumento de datos, la regularización y los modelos preentrenados.
Los modelos de visión por ordenador están diseñados para reconocer patrones, detectar objetos y analizar imágenes. Sin embargo, su rendimiento depende de lo bien que se generalicen a datos no vistos. La generalización es la capacidad del modelo para funcionar bien con nuevas imágenes, no sólo con las que se ha entrenado. Un problema común en el entrenamiento de estos modelos es el sobreajuste, en el que un modelo aprende demasiado de sus datos de entrenamiento, incluyendo ruido innecesario, en lugar de identificar patrones significativos.
Cuando esto ocurre, el modelo funciona bien con los datos de entrenamiento, pero tiene problemas con las imágenes nuevas. Por ejemplo, un modelo de detección de objetos entrenado sólo con imágenes de alta resolución y bien iluminadas puede fallar cuando se le presentan imágenes borrosas o con sombras en condiciones reales. El sobreajuste limita la adaptabilidad de un modelo, lo que limita su uso en aplicaciones del mundo real como la conducción autónoma, las imágenes médicas y los sistemas de seguridad.
En este artículo exploraremos qué es el sobreajuste, por qué se produce y cómo evitarlo. También veremos cómo los modelos de visión por ordenador como Ultralytics YOLO11 ayudan a reducir el sobreajuste y a mejorar la generalización.
La sobreadaptación se produce cuando un modelo memoriza los datos de entrenamiento en lugar de aprender patrones que se apliquen ampliamente a las nuevas entradas. El modelo se centra demasiado en los datos de entrenamiento, por lo que tiene dificultades con nuevas imágenes o situaciones que no ha visto antes.
En visión por ordenador, el sobreajuste puede afectar a distintas tareas. Un modelo de clasificación entrenado sólo con imágenes claras y brillantes puede tener problemas en condiciones de poca luz. Un modelo de detección de objetos que aprende de imágenes perfectas puede fallar en escenas abarrotadas o desordenadas. Del mismo modo, un modelo de segmentación de instancias puede funcionar bien en entornos controlados, pero tener problemas con sombras u objetos superpuestos.
Esto se convierte en un problema en las aplicaciones de IA del mundo real, donde los modelos deben ser capaces de generalizar más allá de las condiciones de entrenamiento controladas. Los coches autoconducidos, por ejemplo, deben ser capaces de detectar peatones en diferentes condiciones de luz, tiempo y entorno. Un modelo que se ajuste en exceso a su conjunto de entrenamiento no funcionará de forma fiable en escenarios tan impredecibles.
El sobreajuste suele deberse a conjuntos de datos desequilibrados, a la excesiva complejidad del modelo y al sobreentrenamiento. Estas son las causas principales:
Un enfoque bien equilibrado de la complejidad del modelo, la calidad del conjunto de datos y las técnicas de entrenamiento garantiza una mejor generalización.
El sobreajuste y el infraajuste son dos cuestiones completamente polares en el aprendizaje profundo.
La sobreadaptación se produce cuando un modelo es demasiado complejo, lo que hace que se centre demasiado en los datos de entrenamiento. En lugar de aprender patrones generales, memoriza pequeños detalles, incluso irrelevantes como el ruido de fondo. Esto hace que el modelo funcione bien con los datos de entrenamiento, pero tenga problemas con las imágenes nuevas, lo que significa que no ha aprendido realmente a reconocer patrones que se aplican en situaciones diferentes.
La inadaptación ocurre cuando un modelo es demasiado básico, por lo que pasa por alto patrones importantes en los datos. Esto puede ocurrir cuando el modelo tiene muy pocas capas, no tiene suficiente tiempo de entrenamiento o los datos son limitados. Como resultado, no reconoce patrones importantes y hace predicciones inexactas. Esto conduce a un rendimiento deficiente tanto en los datos de entrenamiento como en los de prueba, porque el modelo no ha aprendido lo suficiente para comprender la tarea correctamente.
Un modelo bien entrenado encuentra el equilibrio entre complejidad y generalización. Debe ser lo suficientemente complejo como para aprender patrones relevantes, pero no tanto como para memorizar datos en lugar de reconocer las relaciones subyacentes.
He aquí algunas señales que indican que un modelo está sobreajustado:
Para garantizar que un modelo generaliza bien, es necesario probarlo en diversos conjuntos de datos que reflejen las condiciones del mundo real.
El sobreajuste no es inevitable y puede evitarse. Con las técnicas adecuadas, los modelos de visión por ordenador pueden aprender patrones generales en lugar de memorizar datos de entrenamiento, lo que los hace más fiables en las aplicaciones del mundo real.
He aquí cinco estrategias clave para evitar el sobreajuste en la visión por ordenador.
La mejor forma de ayudar a que un modelo funcione bien con datos nuevos es ampliando el conjunto de datos mediante el aumento de datos y los datos sintéticos. Los datos sintéticos se generan por ordenador en lugar de recogerse de imágenes del mundo real. Ayudan a rellenar huecos cuando no hay suficientes datos reales.
El aumento de datos modifica ligeramente las imágenes existentes volteándolas, rotándolas, recortándolas o ajustando el brillo, de modo que el modelo no se limita a memorizar detalles, sino que aprende a reconocer objetos en situaciones diferentes.
Los datos sintéticos son útiles cuando es difícil obtener imágenes reales. Por ejemplo, los modelos de coches autoconducidos pueden entrenarse en escenas de carretera generadas por ordenador para aprender a detectar objetos en diferentes condiciones meteorológicas y de iluminación. Esto hace que el modelo sea más flexible y fiable sin necesidad de miles de imágenes del mundo real.
Una red neuronal profunda, que es un tipo de modelo de aprendizaje automático que tiene muchas capas que procesan datos en lugar de una sola capa, no siempre es mejor. Cuando un modelo tiene demasiadas capas o parámetros, memoriza los datos de entrenamiento en lugar de reconocer patrones más amplios. Reducir la complejidad innecesaria puede ayudar a evitar el sobreajuste.
Para conseguirlo, un enfoque es la poda, que elimina las neuronas y conexiones redundantes, haciendo que el modelo sea más delgado y eficiente.
Otra es simplificar la arquitectura reduciendo el número de capas o neuronas. Los modelos preentrenados como YOLO11 están diseñados para generalizar bien entre tareas con menos parámetros, lo que los hace más resistentes al sobreajuste que entrenar un modelo profundo desde cero.
Encontrar el equilibrio adecuado entre la profundidad y la eficacia del modelo le ayuda a aprender patrones útiles sin limitarse a memorizar datos de entrenamiento.
Las técnicas de regularización evitan que los modelos dependan demasiado de características específicas de los datos de entrenamiento. He aquí algunas técnicas de uso común:
Estas técnicas ayudan a mantener la flexibilidad y adaptabilidad de un modelo, reduciendo el riesgo de sobreajuste y preservando la precisión.
Para evitar el sobreajuste, es importante hacer un seguimiento de cómo aprende el modelo y asegurarse de que generaliza bien a los nuevos datos. Aquí tienes un par de técnicas que te ayudarán a conseguirlo:
Estas técnicas ayudan al modelo a mantenerse equilibrado, de modo que aprenda lo suficiente para ser preciso sin centrarse demasiado sólo en los datos de entrenamiento.
En lugar de entrenar desde cero, utilizar modelos preentrenados como YOLO11 puede reducir el sobreajuste. YOLO11 está entrenado en conjuntos de datos a gran escala, lo que le permite generalizar bien en diferentes condiciones.
Afinar un modelo preentrenado le ayuda a mantener lo que ya sabe mientras aprende nuevas tareas, para que no se limite a memorizar los datos de entrenamiento.
Además, es esencial garantizar un etiquetado de alta calidad del conjunto de datos. Los datos mal etiquetados o desequilibrados pueden inducir a los modelos a aprender patrones incorrectos. Limpiar los conjuntos de datos, corregir las imágenes mal etiquetadas y equilibrar las clases mejora la precisión y reduce el riesgo de sobreajuste. Otro enfoque eficaz es el entrenamiento adversario, en el que el modelo se expone a ejemplos ligeramente alterados o más desafiantes, diseñados para poner a prueba sus límites.
El sobreajuste es un problema común en la visión por ordenador. Un modelo puede funcionar bien con los datos de entrenamiento, pero tener problemas con las imágenes del mundo real. Para evitarlo, técnicas como el aumento de datos, la regularización y el uso de modelos preentrenados como YOLO11 ayudan a mejorar la precisión y la adaptabilidad.
Aplicando estos métodos, los modelos de IA pueden seguir siendo fiables y funcionar bien en distintos entornos. A medida que mejora el aprendizaje profundo, asegurarse de que los modelos generalizan adecuadamente será clave para el éxito de la IA en el mundo real.
¡Únete a nuestra creciente comunidad! Explora nuestro repositorio GitHub para aprender más sobre IA. ¿Estás listo para iniciar tus propios proyectos de visión por ordenador? Consulta nuestras opciones de licencia. Descubre la IA de visión en la conducción autónoma y la IA en la asistencia sanitaria visitando nuestras páginas de soluciones.
Comienza tu viaje con el futuro del aprendizaje automático