No domínio da aprendizagem automática, alcançar um desempenho ótimo do modelo é um equilíbrio delicado. Um desafio comum encontrado durante o treino de modelos é o subajuste. A subadaptação ocorre quando um modelo de aprendizagem automática é demasiado simplista para captar os padrões subjacentes nos dados de treino. Significa essencialmente que o modelo não consegue aprender os dados de forma eficaz, o que resulta num fraco desempenho tanto no conjunto de treino como nos dados não vistos. Isto deve-se frequentemente ao facto de o modelo não ter a complexidade necessária para representar as relações nos dados.
O que causa a falta de ajuste?
Vários factores podem contribuir para o subajuste dos modelos de aprendizagem automática.
- Simplicidade do modelo: A utilização de um modelo demasiado simples para a complexidade dos dados é uma das principais causas. Por exemplo, tentar ajustar um modelo linear a dados altamente não lineares resultará provavelmente num ajuste insuficiente. Modelos mais complexos, como as Redes Neuronais Convolucionais (CNNs), são frequentemente necessários para conjuntos de dados complexos.
- Tempo de treino insuficiente: Se um modelo não for treinado durante um número suficiente de épocas, pode não ter oportunidades suficientes para aprender os padrões de dados subjacentes. Um treino adequado permite que o modelo ajuste os seus pesos e enviesamentos para se adaptar melhor aos dados.
- Falta de caraterísticas relevantes: Se as caraterísticas de entrada fornecidas ao modelo não representarem adequadamente as caraterísticas subjacentes dos dados, o modelo pode ter dificuldade em aprender eficazmente. A engenharia de caraterísticas para criar caraterísticas mais informativas pode ajudar a mitigar este problema.
- Excesso de regularização: Embora as técnicas de regularização como a regularização L1 ou L2 sejam úteis para evitar o sobreajuste, uma regularização excessiva pode restringir demasiado o modelo, levando a um subajuste.
Identificar a subadaptação
A subadaptação é normalmente identificada através da observação dos indicadores de desempenho do modelo durante a formação e a validação. Os principais indicadores incluem:
- Erro de treino elevado: O modelo apresenta uma taxa de erro elevada no conjunto de dados de treino, indicando que não está a aprender bem os dados de treino.
- Erro de validação elevado: Da mesma forma, o modelo apresenta uma taxa de erro elevada no conjunto de dados de validação, o que sugere uma fraca generalização para dados não vistos.
- Métricas de desempenho fracas: Métricas como exatidão, precisão, recuperação ou mAP são significativamente inferiores ao desejado nos conjuntos de treino e validação. Consulta YOLO para obteres mais detalhes.
Exemplos reais de subadaptação
- Regressão linear simples para classificação de imagens: Imagina a utilização de um modelo de regressão linear básico para a classificação de imagens complexas, como a classificação de diferentes raças de cães. Um modelo linear é demasiado simplista para captar as caraterísticas visuais intrincadas que diferenciam as raças de cães, o que leva a um subajuste significativo e a uma fraca precisão de classificação. Um modelo mais adequado seria uma CNN treinada num grande conjunto de dados como o ImageNet para aprender eficazmente as caraterísticas da imagem.
- Modelo básico para deteção de objetos em cenas densas: Considera a utilização de uma rede neural muito superficial para a deteção de objectos numa cena de rua com muita gente. Um modelo tão simples pode não conseguir detetar muitos objectos, especialmente os mais pequenos ou ocluídos, devido à sua incapacidade de aprender relações espaciais complexas e informações contextuais. A utilização de uma arquitetura mais avançada e profunda como a Ultralytics YOLO11 seria necessária para lidar com a complexidade e a densidade dos objectos em tais cenas.
Underfitting vs. Overfitting
A subadaptação é o oposto da sobreadaptação. Enquanto o subajuste ocorre quando um modelo é demasiado simples e não aprende adequadamente os dados de treino, o sobreajuste ocorre quando um modelo é excessivamente complexo e aprende demasiado bem os dados de treino, incluindo ruído e detalhes irrelevantes. Os modelos com sobreajuste têm um desempenho excecional nos dados de treino, mas fraco em dados novos e não vistos, porque não conseguem generalizar. O objetivo da aprendizagem automática é encontrar um modelo que atinja um equilíbrio, evitando tanto a subadaptação como a sobreadaptação, para obter uma boa generalização e desempenho. Técnicas como a validação cruzada e a afinação de hiperparâmetros são cruciais para encontrar este equilíbrio.