Saiba mais sobre épocas no aprendizado de máquina - como elas afetam o treinamento do modelo, evitam o ajuste excessivo e otimizam o desempenho com o Ultralytics YOLO.
Na aprendizagem automática (ML), uma época representa uma passagem completa de todo o conjunto de dados de treino através do algoritmo de aprendizagem. É um conceito fundamental no processo iterativo de formação de redes neuronais (NN), em que os modelos aprendem vendo repetidamente exemplos dos dados. O número de épocas é um parâmetro-chave que determina quantas vezes o modelo aprenderá com o conjunto completo de informações de treino, influenciando diretamente o desempenho final e a qualidade do modelo.
O principal objetivo da formação de modelos é permitir que um modelo aprenda padrões a partir dos dados. Isto é conseguido através do ajuste dos parâmetros internos do modelo, conhecidos como pesos do modelo, para minimizar uma função de perda, que quantifica o erro entre as previsões do modelo e a verdade real. Durante uma única época, o modelo processa cada amostra de dados e um algoritmo de otimização como o Stochastic Gradient Descent (SGD) actualiza estes pesos.
O treino de um modelo durante várias épocas permite-lhe aperfeiçoar iterativamente os seus parâmetros. Com cada passagem, o modelo deveria, em teoria, tornar-se melhor na sua tarefa, quer se trate de classificação de imagens ou deteção de objectos. Este processo é gerido utilizando estruturas populares de aprendizagem profunda, como o PyTorch ou o TensorFlow.
Embora relacionados, estes termos descrevem aspectos diferentes do processo de formação e são frequentemente confundidos.
Por exemplo, se um conjunto de dados tiver 10.000 imagens e o tamanho do lote for 100, uma época consistirá em 100 iterações (10.000 imagens / 100 imagens por lote).
A escolha do número correto de épocas é uma parte crítica da afinação de hiperparâmetros. Implica encontrar um equilíbrio para evitar dois problemas comuns:
Uma técnica comum para combater o sobreajuste é a paragem precoce, em que o treino é interrompido quando o desempenho do modelo num conjunto de validação deixa de melhorar. O progresso pode ser monitorizado utilizando ferramentas como o TensorBoard ou através de plataformas como o Ultralytics HUB, que ajuda a visualizar as métricas de formação ao longo das épocas.
O conceito de épocas é universal nas aplicações de aprendizagem profunda.
Condução autónoma: Um modelo de deteção de objectos para um veículo autónomo é treinado num conjunto de dados maciço como o Argoverse. O modelo, como o Ultralytics YOLO11, pode ser treinado durante 50-100 épocas. Após cada época, o seu desempenho num conjunto de validação é medido utilizando métricas como a precisão média (mAP). Os engenheiros seleccionarão o modelo da época que oferece o melhor equilíbrio entre velocidade e precisão antes da implementação.
Análise de imagens médicas: Um modelo para deteção de tumores em exames cerebrais é treinado num conjunto de dados especializados de imagens médicas. Dado que esses conjuntos de dados podem ser pequenos, o modelo pode ser treinado durante várias centenas de épocas. Para evitar o sobreajuste, são utilizadas técnicas como o aumento de dados, e a perda de validação é monitorizada de perto após cada época. Isto assegura que o modelo final se generaliza bem a exames de novos doentes. Seguir as dicas de treinamento de modelos estabelecidas é crucial para o sucesso em tais aplicações críticas.