Glossário

Regularização

Evita o sobreajuste e melhora a generalização do modelo com técnicas de regularização como L1, L2, dropout e early stopping. Aprende mais!

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A regularização é uma técnica crucial na aprendizagem automática utilizada para evitar o sobreajuste e melhorar a generalização dos modelos para dados não vistos. Funciona adicionando restrições adicionais ao processo de treino do modelo, desencorajando modelos demasiado complexos que memorizam os dados de treino em vez de aprenderem padrões subjacentes. Isto leva a modelos que têm um melhor desempenho em dados novos e não vistos, que é o objetivo final da aprendizagem automática.

O que é a regularização?

Na sua essência, a regularização visa simplificar o modelo penalizando a complexidade durante o treino. Modelos complexos com muitos parâmetros são propensos a se ajustar ao ruído nos dados de treinamento, levando a um desempenho ruim em novos dados. Os métodos de regularização introduzem um termo de penalidade na função de perda que o modelo tenta minimizar. Esta penalização desencoraja o modelo de atribuir pesos excessivamente grandes às caraterísticas, promovendo assim modelos mais simples e mais generalizáveis. Ao controlar a complexidade do modelo, a regularização ajuda a encontrar um equilíbrio entre o bom ajuste dos dados de treinamento e a generalização para novos dados, abordando o tradeoff viés-variância.

Tipos de regularização

Várias técnicas de regularização são normalmente utilizadas na aprendizagem automática, cada uma com a sua própria abordagem para penalizar a complexidade do modelo. Algumas das mais populares incluem:

  • Regularização L1 (Lasso): Adiciona uma penalidade proporcional ao valor absoluto dos pesos. Isto encoraja a esparsidade no modelo, conduzindo efetivamente alguns pesos de caraterísticas a zero e efectuando a seleção de caraterísticas. A regularização L1 pode ser particularmente útil ao lidar com dados de alta dimensão em que muitas caraterísticas podem ser irrelevantes.
  • Regularização L2 (Ridge): Adiciona uma penalidade proporcional ao quadrado da magnitude dos pesos. Reduz todos os pesos para zero, mas, ao contrário de L1, raramente os define exatamente como zero. A regularização L2 reduz o impacto das caraterísticas menos importantes sem eliminá-las completamente, levando a modelos mais estáveis e robustos.
  • Desistência: Uma técnica específica das redes neuronais, as camadas de abandono colocam aleatoriamente uma fração de neurónios a zero durante cada iteração de treino. Isto evita que os neurónios se co-adaptem demasiado aos dados de treino e força a rede a aprender caraterísticas mais robustas e independentes. O abandono é eficaz para reduzir o sobreajuste e melhorar a generalização dos modelos de aprendizagem profunda.
  • Interrupção antecipada: Monitora o desempenho do modelo em um conjunto de dados de validação durante o treinamento e interrompe o treinamento quando o desempenho da validação começa a se degradar. Isto evita que o modelo continue a aprender demasiado bem os dados de treino e perca a sua capacidade de generalização. A interrupção antecipada é uma forma simples e eficaz de regularização.

Aplicações no mundo real

A regularização é amplamente aplicada em vários domínios da IA e da aprendizagem automática para melhorar o desempenho e a fiabilidade do modelo. Eis alguns exemplos:

  • Classificação de imagens: Nas tarefas de classificação de imagens que utilizam modelos Ultralytics YOLO , a regularização L2 é frequentemente utilizada na função de perda para evitar o sobreajuste, especialmente quando se treina em conjuntos de dados mais pequenos. Técnicas como o ajuste de hiperparâmetros podem ser usadas para encontrar a força de regularização ideal, equilibrando precisão e generalização.
  • Processamento de linguagem natural (PNL): Ao utilizar modelos para análise de sentimentos ou geração de texto, a regularização de desistências pode ser crucial para evitar que redes neurais complexas memorizem o texto de treino e, em vez disso, aprendam padrões linguísticos mais gerais. Isto resulta em modelos que são melhores na compreensão e geração de texto novo e não visto.

Ao aplicar técnicas de regularização, os profissionais de aprendizagem automática podem criar modelos de IA mais robustos, fiáveis e generalizáveis que funcionam eficazmente em aplicações do mundo real. Uma exploração mais aprofundada de técnicas como o aumento de dados juntamente com a regularização pode melhorar ainda mais o desempenho e a robustez do modelo.

Lê tudo