Evita o sobreajuste e melhora a generalização do modelo com técnicas de regularização como L1, L2, dropout e early stopping. Aprende mais!
A regularização é um conjunto de técnicas utilizadas na aprendizagem automática (ML) para evitar um problema comum chamado sobreajuste. O sobreajuste ocorre quando um modelo aprende demasiado bem os dados de treino, incluindo o seu ruído e flutuações aleatórias, o que tem um impacto negativo no desempenho do modelo em dados novos e não vistos. Os métodos de regularização introduzem uma penalização para a complexidade do modelo, incentivando o modelo a aprender padrões mais simples que se generalizam melhor para novos dados. Isto é crucial para a construção de modelos de IA robustos, incluindo os utilizados na visão computacional (CV) e no processamento de linguagem natural (PNL).
A regularização é fundamental para treinar modelos de ML fiáveis, particularmente os complexos, como os modelos de aprendizagem profunda (DL) e as redes neurais (NN). Sem regularização, esses modelos podem facilmente memorizar os dados de treinamento em vez de aprender os padrões subjacentes. Isso leva a uma alta precisão no conjunto de treinamento, mas a um desempenho ruim nos dados de validação ou nas entradas do mundo real. Ao adicionar um termo de penalização à função de perda, a regularização ajuda a controlar a magnitude dos pesos do modelo, simplificando efetivamente o modelo e melhorando a sua capacidade de generalização. Este equilíbrio entre o ajuste dos dados e a manutenção da simplicidade é frequentemente discutido no contexto do compromisso entre viés e variância. Para modelos como o Ultralytics YOLOa regularização contribui para alcançar uma elevada precisão em tarefas exigentes como a deteção de objectos em tempo real.
Várias técnicas de regularização são amplamente utilizadas:
A regularização é diferente de outros conceitos importantes de ML:
As técnicas de regularização são essenciais para o sucesso prático de muitas aplicações de IA:
Na classificação de imagens, as redes neurais profundas, como as CNNs, podem ter milhões de parâmetros. Sem regularização (como Dropout ou L2), esses modelos podem facilmente se ajustar demais a conjuntos de dados como o ImageNet. A regularização ajuda a garantir que o modelo aprende caraterísticas visuais gerais (arestas, texturas, formas) em vez de memorizar imagens de treino específicas, levando a uma melhor precisão de classificação em novas imagens encontradas em aplicações que vão desde a análise de imagens médicas à condução autónoma. Vê como o sobreajuste é abordado em projectos de visão computacional.
Em tarefas de PNL, como a análise de sentimentos ou a tradução automática, modelos como o Transformers também podem sofrer de sobreajuste, especialmente com dados de treino limitados. As técnicas de regularização, incluindo dropout e decaimento de peso (L2), são aplicadas para evitar que o modelo se baseie demasiado em palavras ou frases específicas presentes apenas no corpus de treino. Isto melhora a capacidade do modelo para compreender e gerar linguagem humana de forma mais eficaz em cenários do mundo real, como chatbots ou ferramentas de resumo de conteúdos.