Glossário

Época

Aprende sobre épocas na aprendizagem automática - como afectam a formação de modelos, evitam o sobreajuste e optimizam o desempenho com Ultralytics YOLO .

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

No domínio da aprendizagem automática, em particular no treino de redes neuronais, uma época é um conceito fundamental que marca uma passagem completa por todo o conjunto de dados de treino. Compreender as épocas é crucial para compreender como os modelos aprendem e melhoram ao longo do tempo. É um hiperparâmetro chave que dita a duração do processo de treino e tem um impacto significativo no desempenho do modelo.

Compreender as épocas na aprendizagem automática

Uma época representa um ciclo completo de treinamento de uma rede neural em todo o conjunto de dados de treinamento. Durante uma época, o modelo vê cada ponto de dados no conjunto de dados de treino uma vez. Por exemplo, se o teu conjunto de dados de treino contém 1.000 imagens, uma época significa que o modelo processará todas as 1.000 imagens uma vez durante o processo de treino.

As épocas são essenciais porque permitem que o modelo aprenda iterativamente com os dados. Em cada época, o modelo ajusta os seus parâmetros internos (weights and biases) com base nos erros que comete na passagem anterior. Este processo de ajustamento, frequentemente conduzido por algoritmos de otimização como o optimizador Adam ou o Stochastic Gradient Descent (SGD), ajuda o modelo a minimizar a função de perda e a melhorar gradualmente a sua precisão.

Importância das épocas no treino de modelos

O número de épocas utilizadas para treinar um modelo é um hiperparâmetro crítico que afecta diretamente a curva de aprendizagem do modelo e o seu desempenho final. Treinar por um número muito pequeno de épocas pode levar a um subajuste, em que o modelo não consegue aprender os padrões subjacentes nos dados, resultando num fraco desempenho tanto nos dados de treino como nos de validação. Por outro lado, o treino de demasiadas épocas pode causar sobreajuste, em que o modelo se torna demasiado especializado nos dados de treino e tem um desempenho fraco em dados não vistos, não conseguindo assim generalizar eficazmente.

Encontrar o número correto de épocas implica frequentemente monitorizar o desempenho do modelo num conjunto de validação durante o treino. Técnicas como a validação cruzada K-Fold também podem ajudar a avaliar o número ideal de épocas, fornecendo uma estimativa mais robusta do desempenho do modelo em diferentes subconjuntos de dados. Ferramentas como TensorBoard ou Weights & Biases podem ser valiosas para visualizar o progresso do treino e determinar quando parar o treino para evitar o sobreajuste ou subajuste.

Épocas, iterações e tamanho do lote

É importante distinguir épocas de termos relacionados, como iterações e tamanho do lote. Enquanto uma época é uma passagem completa por todo o conjunto de dados de treinamento, uma iteração é uma passagem por um lote de exemplos de treinamento. O tamanho do lote determina quantos exemplos de treinamento são processados em cada iteração.

Por exemplo, se tiveres um conjunto de dados de 1.000 imagens e definires um tamanho de lote de 10, cada época consistirá em 100 iterações (1.000 imagens / 10 imagens por lote = 100 iterações). Em cada iteração, o modelo processa 10 imagens, calcula o erro e actualiza os parâmetros do modelo. Após 100 iterações, o modelo completou uma época, tendo visto todas as 1.000 imagens uma vez.

Compreender esta relação é crucial para um treino eficiente, especialmente quando lida com grandes conjuntos de dados que não cabem na memória de uma só vez. O tamanho do lote e o número de iterações por época são parâmetros configuráveis em estruturas de treinamento como o PyTorchque é a base do Ultralytics YOLO .

Aplicações reais de épocas

As épocas são fundamentais para o treino de qualquer modelo de aprendizagem profunda e a sua aplicação estende-se a vários domínios. Aqui tens alguns exemplos:

  1. Ultralytics YOLO Deteção de objectos: Quando treinas um modelo Ultralytics YOLOv8 modelo para deteção de objectos, define o número de épocas para treinar o modelo no seu conjunto de dados. Por exemplo, em cenários como a visão por computador na agricultura para deteção de fruta, podes treinar um modelo YOLO durante 100 épocas. Isso significa que o modelo passará por todo o seu conjunto de dados de imagens de frutas 100 vezes, aprendendo a identificar e localizar com precisão as frutas nas imagens. A plataforma Ultralytics HUB simplifica este processo, permitindo aos utilizadores definir e gerir facilmente as épocas durante o treino.

  2. Análise de imagens médicas: Na análise de imagens médicas, as épocas são essenciais para treinar modelos para detetar doenças ou anomalias em exames médicos. Por exemplo, o treinamento de um modelo para detetar tumores em imagens de ressonância magnética de tumores cerebrais envolveria a definição de um número de épocas. Cada época garante que o modelo aperfeiçoa a sua capacidade de reconhecer padrões subtis indicativos de tumores em todo o conjunto de dados de exames de RMN, melhorando a precisão do diagnóstico em épocas sucessivas.

Em conclusão, as épocas são uma pedra angular do processo de formação de aprendizagem profunda. Representam ciclos de aprendizagem completos sobre os dados de treino, e a gestão cuidadosa do seu número é vital para alcançar o desempenho ideal do modelo e evitar armadilhas comuns como o sobreajuste e o subajuste. Ao compreenderem as épocas, os profissionais podem controlar melhor e otimizar o treino dos seus modelos de IA para diversas aplicações do mundo real.

Lê tudo