Glossário

Época

Aprende sobre épocas na aprendizagem automática - como afectam a formação de modelos, evitam o sobreajuste e optimizam o desempenho com Ultralytics YOLO .

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

Na aprendizagem automática (ML), em particular na formação de modelos de aprendizagem profunda (DL), uma época representa uma passagem completa por todo o conjunto de dados de formação. É um conceito fundamental que significa um ciclo completo em que o modelo viu e aprendeu com cada exemplo de treinamento uma vez. Normalmente, o treino envolve várias épocas, permitindo que o modelo refine iterativamente os seus parâmetros internos(pesos do modelo) e melhore o seu desempenho na tarefa para a qual está a ser treinado.

Como funcionam as épocas

Durante o treino do modelo, o conjunto de dados é normalmente demasiado grande para ser processado de uma só vez devido a restrições de memória. Por isso, divide-o em partes mais pequenas, chamadas lotes. O modelo processa um lote de cada vez, calcula o erro (perda) e actualiza os seus pesos utilizando um algoritmo de otimização como o gradient descent. Uma época só é concluída depois de o modelo ter processado todos os lotes que cobrem todo o conjunto de dados de treino. A repetição deste processo em várias épocas permite que o modelo aprenda padrões e relações complexas dentro dos dados de forma mais eficaz.

Época Vs. Iteração Vs. Tamanho do lote

É importante distinguir uma época de termos relacionados:

  • Época: Faz um ciclo completo de todo o conjunto de dados de treino.
  • Tamanho do lote: O número de amostras de treino processadas antes de os pesos do modelo serem actualizados.
  • Iteração: Uma única atualização dos pesos do modelo. Uma iteração envolve o processamento de um lote de dados.

A relação é direta: se um conjunto de dados de treino tiver 10.000 amostras e o tamanho do lote for 100, então uma época consiste em 100 iterações (10.000 amostras / 100 amostras por lote).

Importância das épocas na formação

Treinar um modelo durante várias épocas é crucial para a convergência, o que significa que o modelo atinge um estado estável em que o seu desempenho é ótimo ou quase ótimo. Cada época dá ao modelo outra oportunidade de aprender com os padrões de dados. No entanto, o número de épocas é um hiperparâmetro crítico.

  • Poucas épocas: O modelo pode não aprender o suficiente, levando a um subajuste, em que o desempenho é fraco mesmo com os dados de treino.
  • Demasiadas épocas: O modelo pode aprender demasiado bem os dados de treino, incluindo ruído e detalhes específicos, o que leva a um sobreajuste. Um modelo sobreajustado tem um bom desempenho nos dados de treino mas um fraco desempenho em dados não vistos(dados de validação ou exemplos do mundo real).

A monitorização das métricas de desempenho num conjunto de validação separado durante o treino ajuda a determinar o número ideal de épocas, utilizando frequentemente técnicas como a paragem antecipada para interromper o treino quando o desempenho da validação deixa de melhorar.

Exemplos do mundo real

  1. Deteção de objectos com o Ultralytics YOLO: Quando treinas um Ultralytics YOLO do Ultralytics, como o YOLOv8 ou YOLO11num conjunto de dados como COCO, podes especificar o treino para 100 épocas. Em cada época, o modelo processa todo o conjunto de imagens de treino COCO (dividido em lotes), ajustando os seus pesos para melhor identificar e localizar objectos. Plataformas como o Ultralytics HUB fornecem ferramentas para gerir este processo de treino e monitorizar o progresso entre épocas.
  2. Processamento de linguagem natural (NLP): Treinar um modelo como o BERT para análise de sentimentos num conjunto de dados de críticas de clientes envolve várias épocas. Por exemplo, treinar para 5 épocas significa que o modelo lê todos os comentários cinco vezes. Em cada passagem (época), utiliza bibliotecas como Hugging Face Transformers, muitas vezes através de estruturas como PyTorch ou TensorFlowo modelo melhora a sua capacidade de classificar os comentários como positivos, negativos ou neutros.

As épocas são uma pedra angular da aprendizagem iterativa em ML, equilibrando a necessidade de exposição suficiente aos dados com os riscos de sobreajuste. Selecionar o número certo de épocas, muitas vezes através de uma experimentação e monitorização cuidadosas, é fundamental para criar modelos eficazes. Podes encontrar mais definições em recursos como o Glossário de Aprendizagem AutomáticaGoogle .

Lê tudo