Aprende sobre épocas na aprendizagem automática - como afectam a formação de modelos, evitam o sobreajuste e optimizam o desempenho com Ultralytics YOLO .
Na aprendizagem automática (ML), em particular na formação de modelos de aprendizagem profunda (DL), uma época representa uma passagem completa por todo o conjunto de dados de formação. É um conceito fundamental que significa um ciclo completo em que o modelo viu e aprendeu com cada exemplo de treinamento uma vez. Normalmente, o treino envolve várias épocas, permitindo que o modelo refine iterativamente os seus parâmetros internos(pesos do modelo) e melhore o seu desempenho na tarefa para a qual está a ser treinado.
Durante o treino do modelo, o conjunto de dados é normalmente demasiado grande para ser processado de uma só vez devido a restrições de memória. Por isso, divide-o em partes mais pequenas, chamadas lotes. O modelo processa um lote de cada vez, calcula o erro (perda) e actualiza os seus pesos utilizando um algoritmo de otimização como o gradient descent. Uma época só é concluída depois de o modelo ter processado todos os lotes que cobrem todo o conjunto de dados de treino. A repetição deste processo em várias épocas permite que o modelo aprenda padrões e relações complexas dentro dos dados de forma mais eficaz.
É importante distinguir uma época de termos relacionados:
A relação é direta: se um conjunto de dados de treino tiver 10.000 amostras e o tamanho do lote for 100, então uma época consiste em 100 iterações (10.000 amostras / 100 amostras por lote).
Treinar um modelo durante várias épocas é crucial para a convergência, o que significa que o modelo atinge um estado estável em que o seu desempenho é ótimo ou quase ótimo. Cada época dá ao modelo outra oportunidade de aprender com os padrões de dados. No entanto, o número de épocas é um hiperparâmetro crítico.
A monitorização das métricas de desempenho num conjunto de validação separado durante o treino ajuda a determinar o número ideal de épocas, utilizando frequentemente técnicas como a paragem antecipada para interromper o treino quando o desempenho da validação deixa de melhorar.
As épocas são uma pedra angular da aprendizagem iterativa em ML, equilibrando a necessidade de exposição suficiente aos dados com os riscos de sobreajuste. Selecionar o número certo de épocas, muitas vezes através de uma experimentação e monitorização cuidadosas, é fundamental para criar modelos eficazes. Podes encontrar mais definições em recursos como o Glossário de Aprendizagem AutomáticaGoogle .