Glossário

Regularização

Melhora os teus modelos de aprendizagem automática com técnicas de regularização como L1 e L2 para evitar o sobreajuste e melhorar o desempenho em aplicações de IA.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A regularização é um conceito vital na aprendizagem automática que tem como objetivo melhorar o desempenho do modelo, evitando o sobreajuste. O sobreajuste ocorre quando um modelo aprende muito bem os dados de treinamento, capturando ruídos e padrões específicos que não se generalizam para novos dados. A regularização introduz termos de penalização no processo de otimização do modelo para simplificar o modelo, incentivando-o a aprender padrões mais generalizados.

Tipos de regularização

Vários tipos de regularização ajudam a atingir estes objectivos, sendo os mais comuns a regularização L1 e L2.

  • A Regularização L1 (Regressão Lasso) adiciona uma penalidade igual ao valor absoluto dos coeficientes. Isto pode fazer com que alguns coeficientes se tornem exatamente zero, permitindo essencialmente a seleção de caraterísticas. Lê mais sobre técnicas de extração de caraterísticas.
  • A regularização L2 (Ridge Regression) adiciona uma penalização igual ao quadrado dos coeficientes. Isso desencoraja modelos complexos e normalmente leva a coeficientes menores. Explora os métodos L2 com mais detalhes no nosso guia de técnicas de regularização.

Importância na aprendizagem automática

A regularização desempenha um papel crucial no equilíbrio entre a polarização e a variância. Ao incorporar a regularização, os modelos podem alcançar uma variância mais baixa com um ligeiro custo de aumento da tendência, o que geralmente leva a um melhor desempenho em dados não vistos.

Em domínios como a aprendizagem profunda, as técnicas de regularização são parte integrante do desenvolvimento de modelos. Garantem que, enquanto o modelo aprende representações complexas, não depende demasiado do ruído no conjunto de dados.

Aplicações em IA/ML

  • Reconhecimento de imagens: A regularização é essencial no treino de modelos para reconhecimento de imagens, em que um modelo pode memorizar padrões específicos nos dados de treino em vez de generalizar para diversas imagens.
  • Processamento de linguagem natural (PNL): No PNL, a regularização evita que os modelos se ajustem excessivamente ao texto de treino, garantindo que podem lidar eficazmente com diversas entradas de linguagem.

Exemplos do mundo real

  1. Diagnósticos na área da saúde: A regularização é utilizada na imagiologia médica para criar modelos que podem generalizar através de vários dados de pacientes, aumentando a fiabilidade nos diagnósticos. Descobre o seu papel na IA nos cuidados de saúde.

  2. Veículos autónomos: Nos veículos autónomos, a regularização garante que os modelos podem generalizar a partir de cenários de treino para condições de condução no mundo real com elevados padrões de segurança. Vê como é aplicada na indústria da condução autónoma.

Distinção de conceitos relacionados

Enquanto a regularização ajuda a simplificar o modelo, técnicas como a poda de modelos reduzem fisicamente o tamanho do modelo sem modificar o processo de aprendizagem. A regularização aumenta a eficiência da aprendizagem penalizando a complexidade, enquanto a poda se concentra na eficiência da inferência, eliminando neurónios ou caraterísticas não essenciais.

Além disso, a regularização difere da afinação de hiperparâmetros, que envolve a otimização dos parâmetros que ditam o processo de aprendizagem, incluindo a própria influência da regularização no treino do modelo.

Exploração adicional

Para uma exploração mais aprofundada da regularização e das técnicas de aprendizagem automática relacionadas, pode ser útil examinar os seguintes recursos:

A regularização continua a ser a pedra angular do desenvolvimento de modelos de IA robustos e generalizáveis numa vasta gama de aplicações, desde a IA no fabrico até aos avanços mais recentes na visão por computador.

Lê tudo