Glosario

Época

Aprende sobre las épocas en el aprendizaje automático: cómo influyen en el entrenamiento de modelos, evitan el sobreajuste y optimizan el rendimiento con Ultralytics YOLO .

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

En el aprendizaje automático (AM), especialmente en el entrenamiento de modelos de aprendizaje profundo (AD), una época representa una pasada completa por todo el conjunto de datos de entrenamiento. Es un concepto fundamental que significa un ciclo completo en el que el modelo ha visto y aprendido de cada ejemplo de entrenamiento una vez. El entrenamiento suele implicar varias épocas, lo que permite al modelo refinar iterativamente sus parámetros internos(pesos del modelo) y mejorar su rendimiento en la tarea para la que se está entrenando.

Cómo funcionan las épocas

Durante el entrenamiento del modelo, el conjunto de datos suele ser demasiado grande para procesarlo todo a la vez debido a las limitaciones de memoria. Por lo tanto, se divide en trozos más pequeños llamados lotes. El modelo procesa un lote cada vez, calcula el error (pérdida) y actualiza sus pesos mediante un algoritmo de optimización como el descenso gradiente. Una época sólo se completa cuando el modelo ha procesado todos los lotes que cubren todo el conjunto de datos de entrenamiento. La repetición de este proceso a lo largo de varias épocas permite al modelo aprender patrones y relaciones complejas dentro de los datos de forma más eficaz.

Época Vs. Iteración Vs. Tamaño de lote

Es importante distinguir una época de los términos relacionados:

  • Época: Un ciclo completo a través de todo el conjunto de datos de entrenamiento.
  • Tamaño del lote: El número de muestras de entrenamiento procesadas antes de actualizar los pesos del modelo.
  • Iteración: Una única actualización de los pesos del modelo. Una iteración implica el procesamiento de un lote de datos.

La relación es sencilla: si un conjunto de datos de entrenamiento tiene 10.000 muestras y el tamaño del lote es 100, entonces una época consta de 100 iteraciones (10.000 muestras / 100 muestras por lote).

Importancia de las épocas en el entrenamiento

Entrenar un modelo durante varias épocas es crucial para la convergencia, es decir, para que el modelo alcance un estado estable en el que su rendimiento sea óptimo o casi óptimo. Cada época da al modelo otra oportunidad de aprender de los patrones de datos. Sin embargo, el número de épocas es un hiperparámetro crítico.

  • Demasiadas pocas épocas: El modelo podría no aprender lo suficiente, lo que llevaría a un infraajuste, en el que obtiene malos resultados incluso con los datos de entrenamiento.
  • Demasiadas épocas: El modelo puede aprender los datos de entrenamiento demasiado bien, incluyendo ruido y detalles específicos, lo que conduce a un sobreajuste. Un modelo sobreajustado funciona bien con los datos de entrenamiento, pero mal con los datos no vistos(datos de validación o ejemplos del mundo real).

Controlar las métricas de rendimiento en un conjunto de validación separado durante el entrenamiento ayuda a determinar el número óptimo de épocas, utilizando a menudo técnicas como la detención temprana para detener el entrenamiento cuando el rendimiento de validación deja de mejorar.

Ejemplos reales

  1. Detección de objetos con Ultralytics YOLO: Al entrenar un Ultralytics YOLO de Ultralytics, como YOLOv8 o YOLO11en un conjunto de datos como COCO, puedes especificar un entrenamiento de 100 épocas. En cada época, el modelo procesa todo el conjunto de imágenes de entrenamiento COCO (dividido en lotes), ajustando sus pesos para identificar y localizar mejor los objetos. Las plataformas como Ultralytics HUB proporcionan herramientas para gestionar este proceso de entrenamiento y controlar el progreso a lo largo de las épocas.
  2. Procesamiento del Lenguaje Natural (PLN): Entrenar un modelo como BERT para el análisis de sentimientos en un conjunto de datos de opiniones de clientes implica múltiples épocas. Por ejemplo, entrenar durante 5 épocas significa que el modelo lee todas las opiniones cinco veces. Con cada pasada (epoch), utilizando bibliotecas como Hugging Face Transformers a menudo a través de frameworks como PyTorch o TensorFlowel modelo mejora su capacidad para clasificar las opiniones como positivas, negativas o neutras.

Las épocas son una piedra angular del aprendizaje iterativo en ML, equilibrando la necesidad de una exposición suficiente a los datos con los riesgos de un ajuste excesivo. Seleccionar el número adecuado de épocas, a menudo mediante una cuidadosa experimentación y supervisión, es clave para construir modelos eficaces. Puedes encontrar más definiciones en recursos como el Glosario de Aprendizaje AutomáticoGoogle .

Leer todo