Glossário

Época

Saiba mais sobre épocas no aprendizado de máquina - como elas afetam o treinamento do modelo, evitam o ajuste excessivo e otimizam o desempenho com o Ultralytics YOLO.

Na aprendizagem automática (ML), uma época representa uma passagem completa de todo o conjunto de dados de treino através do algoritmo de aprendizagem. É um conceito fundamental no processo iterativo de formação de redes neuronais (NN), em que os modelos aprendem vendo repetidamente exemplos dos dados. O número de épocas é um parâmetro-chave que determina quantas vezes o modelo aprenderá com o conjunto completo de informações de treino, influenciando diretamente o desempenho final e a qualidade do modelo.

O papel das épocas na formação de modelos

O principal objetivo da formação de modelos é permitir que um modelo aprenda padrões a partir dos dados. Isto é conseguido através do ajuste dos parâmetros internos do modelo, conhecidos como pesos do modelo, para minimizar uma função de perda, que quantifica o erro entre as previsões do modelo e a verdade real. Durante uma única época, o modelo processa cada amostra de dados e um algoritmo de otimização como o Stochastic Gradient Descent (SGD) actualiza estes pesos.

O treino de um modelo durante várias épocas permite-lhe aperfeiçoar iterativamente os seus parâmetros. Com cada passagem, o modelo deveria, em teoria, tornar-se melhor na sua tarefa, quer se trate de classificação de imagens ou deteção de objectos. Este processo é gerido utilizando estruturas populares de aprendizagem profunda, como o PyTorch ou o TensorFlow.

Épocas vs. Iterações vs. Lotes

Embora relacionados, estes termos descrevem aspectos diferentes do processo de formação e são frequentemente confundidos.

  • Época: Um ciclo completo em que o modelo viu todo o conjunto de dados de treino.
  • Tamanho do lote: O número de amostras de treino utilizadas numa única iteração. Devido a restrições de memória, muitas vezes não é prático processar todo o conjunto de dados de uma só vez.
  • Iteração: Uma única atualização dos pesos do modelo. Uma iteração envolve o processamento de um lote de dados e a realização de uma passagem para a frente e para trás(retropropagação).

Por exemplo, se um conjunto de dados tiver 10.000 imagens e o tamanho do lote for 100, uma época consistirá em 100 iterações (10.000 imagens / 100 imagens por lote).

Determinação do número correto de épocas

A escolha do número correto de épocas é uma parte crítica da afinação de hiperparâmetros. Implica encontrar um equilíbrio para evitar dois problemas comuns:

  • Ajuste inferior: Ocorre quando o modelo não é treinado durante um número suficiente de épocas. Não consegue aprender os padrões subjacentes nos dados e tem um desempenho fraco tanto nos dados de treino como nos dados de teste.
  • Sobreajuste: Isto acontece quando o modelo é treinado durante demasiadas épocas. Começa a "memorizar" os dados de treino, incluindo o seu ruído, e perde a sua capacidade de generalização para dados novos e não vistos. Embora possa ter uma excelente precisão no conjunto de treino, o seu desempenho nos dados de validação será fraco.

Uma técnica comum para combater o sobreajuste é a paragem precoce, em que o treino é interrompido quando o desempenho do modelo num conjunto de validação deixa de melhorar. O progresso pode ser monitorizado utilizando ferramentas como o TensorBoard ou através de plataformas como o Ultralytics HUB, que ajuda a visualizar as métricas de formação ao longo das épocas.

Exemplos do mundo real

O conceito de épocas é universal nas aplicações de aprendizagem profunda.

  1. Condução autónoma: Um modelo de deteção de objectos para um veículo autónomo é treinado num conjunto de dados maciço como o Argoverse. O modelo, como o Ultralytics YOLO11, pode ser treinado durante 50-100 épocas. Após cada época, o seu desempenho num conjunto de validação é medido utilizando métricas como a precisão média (mAP). Os engenheiros seleccionarão o modelo da época que oferece o melhor equilíbrio entre velocidade e precisão antes da implementação.

  2. Análise de imagens médicas: Um modelo para deteção de tumores em exames cerebrais é treinado num conjunto de dados especializados de imagens médicas. Dado que esses conjuntos de dados podem ser pequenos, o modelo pode ser treinado durante várias centenas de épocas. Para evitar o sobreajuste, são utilizadas técnicas como o aumento de dados, e a perda de validação é monitorizada de perto após cada época. Isto assegura que o modelo final se generaliza bem a exames de novos doentes. Seguir as dicas de treinamento de modelos estabelecidas é crucial para o sucesso em tais aplicações críticas.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência