Glossário

Sobreajuste

Aprende a identificar, prevenir e resolver o problema do sobreajuste na aprendizagem automática. Descobre técnicas para melhorar a generalização do modelo e o desempenho no mundo real.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

O sobreajuste na aprendizagem automática ocorre quando um modelo aprende demasiado bem os dados de treino, captando o ruído e as flutuações aleatórias em vez do padrão subjacente. Isto leva a um excelente desempenho no conjunto de dados de treino, mas a uma fraca generalização para dados novos e não vistos. Essencialmente, o modelo torna-se demasiado complexo e adaptado aos dados de treino, como se memorizasse respostas em vez de compreender conceitos. Trata-se de um desafio comum na formação de modelos de IA, especialmente com algoritmos complexos como as redes neurais utilizadas em Ultralytics YOLO para tarefas como a deteção de objectos e a segmentação de imagens.

Compreender o sobreajuste

O sobreajuste surge porque os modelos de aprendizagem automática têm como objetivo minimizar os erros nos dados de treino. No entanto, se um modelo for excessivamente complexo, pode ajustar-se até ao ruído presente no conjunto de treino. Este ruído não representa padrões verdadeiros e varia em novos conjuntos de dados. Pensa nisto como se um fato fosse perfeitamente adaptado às medidas exactas de uma pessoa num dia específico - pode não se ajustar bem se o peso dessa pessoa variar ou se outra pessoa o tentar vestir. Na aprendizagem automática, este "ajuste perfeito" nos dados de treino leva à inflexibilidade e a um fraco desempenho nos dados do mundo real.

O oposto do sobreajuste é o subajuste, em que um modelo é demasiado simples para captar a estrutura subjacente dos dados. Um modelo subajustado tem um desempenho fraco tanto nos dados de treino como nos novos dados porque não aprendeu o suficiente. O objetivo é encontrar um equilíbrio, muitas vezes referido como o compromisso entre a polarização e a variância, para criar um modelo que generalize bem.

Exemplos reais de sobreajuste

  1. Análise de imagens médicas: Na análise de imagens médicas para deteção de doenças, um modelo sobreajustado pode tornar-se excecionalmente bom na identificação de doenças no conjunto específico de imagens em que foi treinado, podendo até reconhecer artefactos únicos ou ruído presente apenas nesse conjunto de dados. No entanto, quando lhe são apresentadas novas imagens médicas de diferentes máquinas ou populações de doentes, o modelo pode não conseguir generalizar, levando a diagnósticos incorrectos em contextos clínicos reais. Por exemplo, um modelo treinado para detetar tumores utilizando exames de ressonância magnética pode adaptar-se demasiado às caraterísticas de um scanner de ressonância magnética específico e ter um desempenho fraco com exames de um scanner diferente, mesmo que a patologia subjacente seja a mesma.

  2. Análise de sentimentos: Considera um modelo de análise de sentimentos treinado para classificar os comentários dos clientes como positivos ou negativos. Se for excessivamente ajustado, o modelo pode tornar-se demasiado sensível a palavras ou frases específicas prevalecentes no conjunto de dados de avaliação de treino. Por exemplo, se os dados de treino apresentarem muitas críticas que mencionem uma determinada caraterística do produto, o modelo pode associar incorretamente a mera presença dessa caraterística a um sentimento positivo, mesmo que o contexto nas novas críticas seja diferente. Isto pode levar a uma classificação incorrecta de novos comentários de clientes que utilizem linguagem semelhante, mas que expressem opiniões diferentes.

Evitar o sobreajuste

Várias técnicas podem ajudar a reduzir o sobreajuste:

  • Aumenta os dados de treinamento: O fornecimento de dados de treino mais diversificados e representativos pode ajudar o modelo a aprender padrões mais robustos e a reduzir a dependência do ruído. As técnicas de aumento de dados, como as utilizadas em Ultralytics YOLO data augmentation, podem aumentar artificialmente o tamanho e a variabilidade do conjunto de treino.
  • Simplifica o modelo: Reduzir a complexidade do modelo, como diminuir o número de camadas ou parâmetros de uma rede neural, pode evitar que ela memorize ruídos. Técnicas como a poda do modelo podem remover sistematicamente as conexões menos importantes de uma rede treinada para simplificá-la.
  • Regularização: As técnicas de regularização adicionam restrições ao processo de aprendizagem para penalizar modelos demasiado complexos. Os métodos comuns incluem regularização L1 e L2, abandono e normalização de lote.
  • Validação cruzada: A utilização de técnicas como a validação cruzada K-Fold ajuda a avaliar a capacidade de generalização de um modelo para dados não vistos, treinando-o e avaliando-o em vários subconjuntos de dados.
  • Interrupção antecipada: A monitorização do desempenho do modelo num conjunto de validação durante o treino e a interrupção antecipada do treino quando o desempenho da validação começa a degradar-se pode evitar o sobreajuste. Isto evita que o modelo continue a aprender o ruído dos dados de treino.

Ao compreender e abordar o sobreajuste, os programadores podem criar modelos de IA mais fiáveis e eficazes para várias aplicações, garantindo que têm um bom desempenho em cenários reais para além do ambiente de treino. Ferramentas como o Ultralytics HUB podem ajudar no acompanhamento de experiências e na avaliação de modelos, auxiliando na deteção e mitigação do sobreajuste durante o processo de desenvolvimento do modelo.

Lê tudo