Glosario

Insuficiente

Aprende a identificar, prevenir y abordar la inadaptación en los modelos de aprendizaje automático con consejos de expertos, estrategias y ejemplos del mundo real.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

En el ámbito del aprendizaje automático (AM), conseguir un rendimiento óptimo del modelo requiere encontrar un equilibrio entre simplicidad y complejidad. La inadaptación es un problema común cuando un modelo es demasiado simplista para captar los patrones subyacentes presentes en los datos de entrenamiento. Esto significa que el modelo no aprende eficazmente, lo que provoca un rendimiento deficiente no sólo con los datos con los que se entrenó, sino también con datos nuevos y desconocidos(datos de prueba o entradas del mundo real). Un modelo insuficientemente ajustado carece de la capacidad o el tiempo de entrenamiento necesarios para representar con precisión las relaciones existentes en los datos, lo que da lugar a un elevado sesgo y a una incapacidad para generalizar bien.

¿Qué causa la inadaptación?

Hay varios factores que pueden contribuir a un modelo inadaptado:

  • Complejidad insuficiente del modelo: El modelo elegido puede ser demasiado simple para la complejidad de los datos. Por ejemplo, utilizar un modelo básico de regresión lineal para datos con patrones no lineales, o utilizar una red neuronal (RN ) con muy pocas capas o neuronas.
  • Ingeniería de rasgos inadecuada: Las características de entrada proporcionadas al modelo pueden no contener suficiente información relevante o no representar eficazmente los patrones subyacentes.
  • Datos de entrenamiento insuficientes: Puede que el modelo no haya visto suficientes ejemplos para aprender los patrones subyacentes. Esto es especialmente cierto para los modelos complejos de aprendizaje profundo. Es crucial disponer de datos diversos y representativos, que pueden explorarse a través de plataformas como los conjuntos de datosUltralytics .
  • Entrenamiento demasiado corto: El proceso de entrenamiento del modelo puede detenerse prematuramente, antes de que haya tenido suficientes épocas para aprender los patrones de los datos.
  • Regularización excesiva: Las técnicas utilizadas para evitar el sobreajuste, como la regularización L1 o L2 o los altos porcentajes de abandono, a veces pueden restringir excesivamente el modelo, impidiéndole aprender los patrones necesarios si se aplican con demasiada fuerza.

Identificar la inadaptación

La inadaptación suele diagnosticarse evaluando el rendimiento del modelo durante y después del entrenamiento:

  • Error de entrenamiento elevado: El modelo funciona mal incluso con los datos con los que se entrenó. Las métricas clave como la exactitud, la precisión, la recuperación o la puntuación F1 son bajas, y el valor de la función de pérdida sigue siendo alto.
  • Alto error de validación/prueba: El modelo también funciona mal con datos de validación o datos de prueba no vistos. La diferencia de rendimiento entre el error de entrenamiento y el de validación suele ser pequeña, pero ambos errores son inaceptablemente altos.
  • Curvas de aprendizaje: Trazar las pérdidas/métricas de entrenamiento y validación en función de las épocas de entrenamiento puede revelar un ajuste insuficiente. Si ambas curvas se estabilizan en un nivel de error alto, es probable que el modelo no esté bien adaptado. Puedes controlarlas con herramientas como TensorBoard o Weights & Biases. Comprender las métricas de rendimiento específicas YOLO también es vital.

Abordar la inadaptación

Varias estrategias pueden ayudar a superar la inadaptación:

Infraadaptación vs. Sobreadaptación

El infraajuste y el sobreajuste son dos caras de la misma moneda, que representan fallos en la generalización del modelo.

  • Ajuste insuficiente: El modelo es demasiado simple ( sesgo alto). No capta las tendencias subyacentes en los datos, lo que da lugar a un rendimiento deficiente tanto en los conjuntos de entrenamiento como en los de prueba.
  • Sobreajuste: El modelo es demasiado complejo (alta varianza). Aprende demasiado bien los datos de entrenamiento, incluyendo el ruido y las fluctuaciones aleatorias, lo que lleva a un rendimiento excelente en el conjunto de entrenamiento, pero pobre en los datos no vistos.

El objetivo del ML es encontrar un punto óptimo entre el ajuste insuficiente y el ajuste excesivo, que a menudo se discute en el contexto del equilibrio entre sesgo y varianza, en el que el modelo aprende los verdaderos patrones subyacentes sin memorizar el ruido.

Ejemplos reales de inadaptación

  1. Clasificador de imágenes simple: Entrenar una Red Neuronal Convolucional (CNN ) muy básica (por ejemplo, con sólo una o dos capas convolucionales) en una tarea compleja de clasificación de imágenes, como clasificar miles de categorías de objetos en ImageNet. El modelo probablemente no se ajustaría bien porque su capacidad limitada le impide aprender las intrincadas características necesarias para distinguir entre muchas clases con eficacia. Tanto la precisión del entrenamiento como la de la validación seguirían siendo bajas.
  2. Mantenimiento Predictivo Básico: Utilizar un modelo lineal simple para predecir el fallo de una máquina basándose sólo en la temperatura de funcionamiento. Si los fallos están realmente influidos por una compleja interacción de factores como las vibraciones, la edad, la presión y las no linealidades de la temperatura, el modelo lineal no se ajustará bien. No puede captar la verdadera complejidad, lo que lleva a un rendimiento deficiente del modelo predictivo y a no anticipar los fallos con precisión. Sería necesario utilizar modelos más complejos o mejores características. Frameworks como PyTorch o TensorFlow ofrecen herramientas para construir modelos más sofisticados.
Leer todo