Glosario

Insuficiente

Aprende a identificar, prevenir y abordar la inadaptación en los modelos de aprendizaje automático con consejos de expertos, estrategias y ejemplos del mundo real.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

En el ámbito del aprendizaje automático (AM), conseguir un rendimiento óptimo del modelo requiere encontrar un equilibrio entre simplicidad y complejidad. La inadaptación es un problema común cuando un modelo es demasiado simplista para captar los patrones subyacentes presentes en los datos de entrenamiento. Esto significa que el modelo no aprende eficazmente, lo que provoca un rendimiento deficiente no sólo en los datos con los que se ha entrenado, sino también en datos nuevos que no se han visto. Un modelo desajustado carece de la capacidad necesaria para representar con precisión las relaciones existentes en los datos.

¿Qué causa la inadaptación?

Varios factores pueden conducir a un modelo desajustado:

  • Complejidad insuficiente del modelo: La arquitectura del modelo elegido puede ser demasiado simple para la tarea. Por ejemplo, utilizar un modelo lineal para datos complejos y no lineales, o una red neuronal con muy pocas capas o neuronas. Comprender la complejidad del modelo es clave.
  • Características inadecuadas: Las características de entrada proporcionadas al modelo pueden no contener suficiente información relevante para hacer predicciones precisas. Una ingeniería de características eficaz es crucial para evitarlo.
  • Entrenamiento insuficiente: Puede que el modelo no se haya entrenado durante suficientes épocas, lo que significa que no ha tenido suficientes oportunidades de aprender los patrones de los datos de entrenamiento.
  • Regularización excesiva: Aunque las técnicas de regularización se utilizan para evitar el sobreajuste, aplicarlas de forma demasiado agresiva puede restringir excesivamente el modelo, obstaculizando su capacidad para aprender los patrones de los datos y provocando un ajuste insuficiente.

Identificar la inadaptación

La inadaptación suele diagnosticarse evaluando el rendimiento del modelo durante y después del entrenamiento:

  • Error de entrenamiento elevado: El modelo funciona mal incluso con los datos con los que se entrenó. Las métricas de rendimiento como la exactitud, la precisión o la recuperación son bajas, mientras que el valor de la función de pérdida sigue siendo alto.
  • Alto error de validación: El modelo también obtiene malos resultados en los datos de validación, lo que indica que no ha aprendido los patrones generales.
  • Curvas de aprendizaje: Trazar el error del modelo en los conjuntos de entrenamiento y validación a lo largo del tiempo(curvas de aprendizaje) puede revelar un ajuste insuficiente si ambas curvas se estabilizan en un nivel de error elevado. Para tareas específicas como la detección de objetos, consulta las guías sobre métricas de rendimientoYOLO .

Abordar la inadaptación

Varias estrategias pueden ayudar a superar la inadaptación:

Ejemplos reales de inadaptación

  • Predecir el precio de la vivienda con características limitadas: Imagina que intentas predecir el precio de la vivienda utilizando sólo el número de dormitorios. Este modelo simple (pocas características) probablemente se ajustaría mal porque ignora factores cruciales como la ubicación, los metros cuadrados y la antigüedad, y no captaría la verdadera complejidad del mercado de la vivienda.
  • Clasificador básico de imágenes para escenas complejas: Entrenar una Red Neuronal Convolucional (CNN ) muy simple con sólo una o dos capas convolucionales para una tarea compleja de clasificación de imágenes, como identificar varias especies de aves en entornos diversos. El modelo podría no aprender las intrincadas características que distinguen a las distintas especies, lo que daría lugar a un rendimiento deficiente tanto en imágenes conocidas como nuevas.

Infraadaptación vs. Sobreadaptación

El infraajuste es lo contrario del sobreajuste. Un modelo infraadaptado es demasiado simple y no capta la tendencia subyacente de los datos, lo que provoca un alto sesgo. Un modelo sobreajustado es demasiado complejo; aprende demasiado bien los datos de entrenamiento, incluidos el ruido y los valores atípicos, lo que da lugar a una varianza elevada y a un rendimiento deficiente en los nuevos datos. El objetivo del aprendizaje automático es alcanzar un equilibrio entre estos dos extremos, consiguiendo una buena generalización. Este equilibrio se discute a menudo en términos de compensación entre sesgo y varianza. Técnicas como la validación cruzada (véase la guía K-Fold Ultralytics Ultralytics ) y el cuidadoso ajuste de hiperparámetros (véase la guía de ajuste deUltralytics ) son esenciales para encontrar este equilibrio óptimo. Las plataformas como Ultralytics HUB pueden ayudar a gestionar los experimentos y realizar un seguimiento del rendimiento del modelo para identificar y mitigar tanto el ajuste insuficiente como el ajuste excesivo.

Leer todo