No domínio da aprendizagem automática, alcançar um desempenho ótimo do modelo é um equilíbrio delicado. Um desafio comum encontrado durante o treino de modelos é o subajuste. A subadaptação ocorre quando um modelo de aprendizagem automática é demasiado simplista para captar os padrões subjacentes nos dados de treino. Significa essencialmente que o modelo não consegue aprender os dados de forma eficaz, o que resulta num fraco desempenho tanto no conjunto de treino como nos dados não vistos. Isto deve-se frequentemente ao facto de o modelo não ter a complexidade necessária para representar as relações nos dados.
O que causa a falta de ajuste?
Vários factores podem contribuir para o subajuste dos modelos de aprendizagem automática.
- Simplicidade do modelo: A utilização de um modelo demasiado simples para a complexidade dos dados é uma das principais causas. Por exemplo, tentar ajustar um modelo linear a dados altamente não lineares resultará provavelmente num ajuste insuficiente. Modelos mais complexos, como as Redes Neuronais Convolucionais (CNNs), são frequentemente necessários para conjuntos de dados complexos.
- Tempo de treino insuficiente: Se um modelo não for treinado durante um número suficiente de épocas, pode não ter oportunidades suficientes para aprender os padrões de dados subjacentes. Um treino adequado permite que o modelo ajuste os seus pesos e enviesamentos para se adaptar melhor aos dados.
- Falta de caraterísticas relevantes: Se as caraterísticas de entrada fornecidas ao modelo não representarem adequadamente as caraterísticas subjacentes dos dados, o modelo pode ter dificuldade em aprender eficazmente. A engenharia de caraterísticas para criar caraterísticas mais informativas pode ajudar a mitigar este problema.
- Excesso de regularização: Embora as técnicas de regularização como a regularização L1 ou L2 sejam úteis para evitar o sobreajuste, uma regularização excessiva pode restringir demasiado o modelo, levando a um subajuste.
Identificar a subadaptação
A subadaptação é normalmente identificada através da observação dos indicadores de desempenho do modelo durante a formação e a validação. Os principais indicadores incluem:
- Erro de treino elevado: O modelo apresenta uma taxa de erro elevada no conjunto de dados de treino, indicando que não está a aprender bem os dados de treino.
- Erro de validação elevado: Da mesma forma, o modelo apresenta uma taxa de erro elevada no conjunto de dados de validação, o que sugere uma fraca generalização para dados não vistos.
- Métricas de desempenho fracas: Métricas como exatidão, precisão, recuperação ou mAP são significativamente inferiores ao desejado nos conjuntos de treino e validação. Consulta YOLO para obteres mais detalhes.
Como lidar com o subajuste
Para combater a subadaptação, podem ser utilizadas várias estratégias:
- Aumenta a complexidade do modelo: Considera a utilização de uma arquitetura de modelo mais complexa. Por exemplo, se um modelo linear não se ajustar bem, tenta utilizar um modelo polinomial, uma árvore de decisão ou uma rede neural como Ultralytics YOLOv8 para tarefas de deteção de objectos.
- Treinar por mais tempo: Aumenta o número de épocas de treinamento para permitir que o modelo tenha mais tempo para aprender os padrões de dados. Ferramentas como Ultralytics HUB facilitam o treinamento e o monitoramento eficientes do modelo.
- Engenharia de caraterísticas: Cria caraterísticas mais relevantes e informativas a partir dos dados existentes. Isto pode envolver a criação de novas caraterísticas, a transformação das existentes ou a seleção de um subconjunto de caraterísticas mais relevante.
- Reduzir a regularização: Se a regularização estiver a ser utilizada, tenta reduzir a força da regularização para permitir que o modelo tenha mais flexibilidade para se ajustar aos dados de treino.
- Recolhe mais dados: Em alguns casos, o subajuste pode ser devido a dados de treinamento insuficientes. Aumentar o tamanho do conjunto de dados de treinamento pode fornecer ao modelo mais exemplos para aprender. Explora os conjuntos de dadosUltralytics para obteres potenciais conjuntos de dados a utilizar.
Exemplos reais de subadaptação
- Regressão linear simples para classificação de imagens: Imagina a utilização de um modelo de regressão linear básico para a classificação de imagens complexas, como a classificação de diferentes raças de cães. Um modelo linear é demasiado simplista para captar as caraterísticas visuais intrincadas que diferenciam as raças de cães, o que leva a um subajuste significativo e a uma fraca precisão de classificação. Um modelo mais adequado seria uma CNN treinada num grande conjunto de dados como o ImageNet para aprender eficazmente as caraterísticas da imagem.
- Modelo básico para deteção de objetos em cenas densas: Considera a utilização de uma rede neural muito superficial para a deteção de objectos numa cena de rua com muita gente. Um modelo tão simples pode não conseguir detetar muitos objectos, especialmente os mais pequenos ou ocluídos, devido à sua incapacidade de aprender relações espaciais complexas e informações contextuais. A utilização de uma arquitetura mais avançada e profunda como a Ultralytics YOLO11 seria necessária para lidar com a complexidade e a densidade dos objectos em tais cenas.
Underfitting vs. Overfitting
A subadaptação é o oposto da sobreadaptação. Enquanto o subajuste ocorre quando um modelo é demasiado simples e não aprende adequadamente os dados de treino, o sobreajuste ocorre quando um modelo é excessivamente complexo e aprende demasiado bem os dados de treino, incluindo ruído e detalhes irrelevantes. Os modelos com sobreajuste têm um desempenho excecional nos dados de treino, mas fraco em dados novos e não vistos, porque não conseguem generalizar. O objetivo da aprendizagem automática é encontrar um modelo que atinja um equilíbrio, evitando tanto a subadaptação como a sobreadaptação, para obter uma boa generalização e desempenho. Técnicas como a validação cruzada e a afinação de hiperparâmetros são cruciais para encontrar este equilíbrio.