Glossário

Subadaptação

Aprende a identificar, prevenir e resolver o subajuste em modelos de aprendizagem automática com dicas de especialistas, estratégias e exemplos do mundo real.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

No domínio da aprendizagem automática (ML), para obter um desempenho ótimo do modelo é necessário encontrar um equilíbrio entre simplicidade e complexidade. A subadaptação é um problema comum em que um modelo é demasiado simplista para captar os padrões subjacentes presentes nos dados de treino. Isto significa que o modelo não consegue aprender eficazmente, o que leva a um fraco desempenho não só nos dados em que foi treinado, mas também em dados novos e não vistos. Um modelo subadaptado não tem a capacidade necessária para representar com exatidão as relações existentes nos dados.

O que causa a falta de ajuste?

Há vários factores que podem levar a um modelo não adaptado:

  • Complexidade insuficiente do modelo: A arquitetura do modelo escolhido pode ser demasiado simples para a tarefa. Por exemplo, utilizar um modelo linear para dados complexos e não lineares, ou uma rede neural com um número demasiado reduzido de camadas ou neurónios. Compreender a complexidade do modelo é fundamental.
  • Caraterísticas inadequadas: As caraterísticas de entrada fornecidas ao modelo podem não conter informação relevante suficiente para fazer previsões exactas. Uma engenharia de caraterísticas eficaz é crucial para evitar esta situação.
  • Treinamento insuficiente: O modelo pode não ter sido treinado durante épocas suficientes, o que significa que não teve oportunidade suficiente para aprender os padrões nos dados de treino.
  • Sobre-regularização: Embora as técnicas de regularização sejam utilizadas para evitar o sobreajuste, aplicá-las de forma demasiado agressiva pode restringir excessivamente o modelo, prejudicando a sua capacidade de aprender os padrões de dados e causando um subajuste.

Identificar a subadaptação

O subajuste é normalmente diagnosticado através da avaliação do desempenho do modelo durante e após o treino:

  • Erro de treinamento alto: O modelo tem um desempenho fraco mesmo nos dados em que foi treinado. As métricas de desempenho como a exatidão, a precisão ou a recuperação são baixas, enquanto o valor da função de perda permanece elevado.
  • Erro de validação elevado: O modelo também tem um desempenho fraco nos dados de validação, indicando que não aprendeu os padrões gerais.
  • Curvas de aprendizagem: Traçar o erro do modelo nos conjuntos de treino e validação ao longo do tempo(curvas de aprendizagem) pode revelar uma subadaptação se ambas as curvas atingirem um nível de erro elevado. Para tarefas específicas como a deteção de objectos, consulta os guias sobre métricas de desempenhoYOLO .

Como lidar com o subajuste

Várias estratégias podem ajudar a ultrapassar o subajuste:

Exemplos reais de subadaptação

  • Prevendo os preços das casas com recursos limitados: Imagina que tentas prever os preços das casas utilizando apenas o número de quartos. Este modelo simples (poucas caraterísticas) provavelmente não seria adequado porque ignora factores cruciais como a localização, a metragem quadrada e a idade, não conseguindo captar a verdadeira complexidade do mercado imobiliário.
  • Classificador básico de imagens para cenas complexas: Treina uma rede neural convolucional (CNN) muito simples, com apenas uma ou duas camadas convolucionais, para uma tarefa complexa de classificação de imagens, como a identificação de várias espécies de aves em diversos ambientes. O modelo pode não conseguir aprender as caraterísticas intrincadas que distinguem as diferentes espécies, resultando num fraco desempenho tanto em imagens familiares como em imagens novas.

Underfitting vs. Overfitting

O subajuste é o inverso do sobreajuste. Um modelo subajustado é demasiado simples e não consegue captar a tendência subjacente dos dados, o que resulta num viés elevado. Um modelo sobreajustado é demasiado complexo; aprende demasiado bem os dados de treino, incluindo o ruído e os valores atípicos, o que leva a uma variância elevada e a um fraco desempenho em novos dados. O objetivo da aprendizagem automática é encontrar um equilíbrio entre estes dois extremos, obtendo uma boa generalização. Este equilíbrio é muitas vezes discutido em termos do compromisso entre a polarização e a variância. Técnicas como a validação cruzada (ver o guiaUltralytics K-Fold) e a afinação cuidadosa dos hiperparâmetros (ver o guiaUltralytics Tuning) são essenciais para encontrar este equilíbrio ótimo. Plataformas como o Ultralytics HUB podem ajudar a gerir experiências e acompanhar o desempenho do modelo para identificar e mitigar tanto o subajuste como o sobreajuste.

Lê tudo