Aprende sobre las épocas en el aprendizaje automático: cómo influyen en el entrenamiento de modelos, evitan el sobreajuste y optimizan el rendimiento con Ultralytics YOLO .
En el aprendizaje automático (AM), especialmente en el entrenamiento de modelos de aprendizaje profundo (AD), una época representa una pasada completa por todo el conjunto de datos de entrenamiento. Es un concepto fundamental que significa un ciclo completo en el que el modelo ha visto y aprendido de cada ejemplo de entrenamiento una vez. El entrenamiento suele implicar varias épocas, lo que permite al modelo refinar iterativamente sus parámetros internos(pesos del modelo) y mejorar su rendimiento en la tarea para la que se está entrenando.
Durante el entrenamiento del modelo, el conjunto de datos suele ser demasiado grande para procesarlo todo a la vez debido a las limitaciones de memoria. Por lo tanto, se divide en trozos más pequeños llamados lotes. El modelo procesa un lote cada vez, calcula el error (pérdida) y actualiza sus pesos mediante un algoritmo de optimización como el descenso gradiente. Una época sólo se completa cuando el modelo ha procesado todos los lotes que cubren todo el conjunto de datos de entrenamiento. La repetición de este proceso a lo largo de varias épocas permite al modelo aprender patrones y relaciones complejas dentro de los datos de forma más eficaz.
Es importante distinguir una época de los términos relacionados:
La relación es sencilla: si un conjunto de datos de entrenamiento tiene 10.000 muestras y el tamaño del lote es 100, entonces una época consta de 100 iteraciones (10.000 muestras / 100 muestras por lote).
Entrenar un modelo durante varias épocas es crucial para la convergencia, es decir, para que el modelo alcance un estado estable en el que su rendimiento sea óptimo o casi óptimo. Cada época da al modelo otra oportunidad de aprender de los patrones de datos. Sin embargo, el número de épocas es un hiperparámetro crítico.
Controlar las métricas de rendimiento en un conjunto de validación separado durante el entrenamiento ayuda a determinar el número óptimo de épocas, utilizando a menudo técnicas como la detención temprana para detener el entrenamiento cuando el rendimiento de validación deja de mejorar.
Las épocas son una piedra angular del aprendizaje iterativo en ML, equilibrando la necesidad de una exposición suficiente a los datos con los riesgos de un ajuste excesivo. Seleccionar el número adecuado de épocas, a menudo mediante una cuidadosa experimentación y supervisión, es clave para construir modelos eficaces. Puedes encontrar más definiciones en recursos como el Glosario de Aprendizaje AutomáticoGoogle .