Glossário

Regularização

Descobre como as técnicas de regularização como L1, L2, abandono e paragem precoce evitam o sobreajuste, garantindo modelos ML robustos.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A regularização é uma técnica crucial na aprendizagem automática (ML) e na aprendizagem profunda (DL) utilizada para evitar o sobreajuste, que ocorre quando um modelo aprende demasiado bem os dados de treino, incluindo o ruído e os valores atípicos. Isto pode levar a uma fraca generalização em dados novos e não vistos. A regularização introduz restrições ou penalidades adicionais no processo de aprendizagem do modelo, incentivando-o a aprender padrões mais simples que têm maior probabilidade de generalizar bem. Ao adicionar um termo de regularização à função de perda, o modelo é desencorajado a depender demasiado de uma única caraterística ou a atribuir pesos excessivamente grandes às caraterísticas.

Tipos de regularização

Existem vários tipos de técnicas de regularização, cada uma com a sua própria abordagem para controlar a complexidade do modelo. Dois dos tipos mais comuns são a regularização L1 e L2.

  • Regularização L1 (Regressão Lasso): Esta técnica adiciona uma penalidade igual ao valor absoluto da magnitude dos coeficientes. Pode conduzir a modelos esparsos em que alguns coeficientes se tornam exatamente zero, realizando efetivamente a seleção de caraterísticas. Saiba mais sobre a engenharia de caraterísticas.
  • Regularização L2 (Regressão Ridge): Esta técnica adiciona uma penalidade igual ao quadrado da magnitude dos coeficientes. Tende a diminuir os coeficientes em direção a zero, mas não os torna exatamente zero. Explora mais sobre algoritmos de otimização.

Outras técnicas de regularização incluem:

  • Desistência: Esta técnica elimina aleatoriamente (coloca a zero) uma proporção de neurónios durante cada iteração de treino, forçando a rede a aprender caraterísticas mais robustas que não dependem da presença de neurónios específicos.
  • Interrupção antecipada: Isto envolve a monitorização do desempenho do modelo num conjunto de dados de validação e a interrupção do processo de formação quando o desempenho começa a degradar-se, indicando que o modelo está a começar a sobreajustar-se.
  • Aumento dos dados: Esta técnica aumenta artificialmente o tamanho do conjunto de dados de treino, aplicando transformações aleatórias aos dados existentes, como rotações, inversões ou cortes no caso de dados de imagem. Explora mais sobre o aumento de dados.

Importância da regularização

A regularização desempenha um papel vital na construção de modelos de ML robustos e generalizáveis. Sem a regularização, os modelos são mais propensos ao sobreajuste, especialmente ao lidar com dados de alta dimensão ou arquiteturas de modelos complexos, como redes neurais profundas. Ao controlar a complexidade do modelo, a regularização ajuda a melhorar a capacidade do modelo de fazer previsões precisas em dados novos e não vistos. Isso é crucial para aplicações do mundo real em que o modelo será implantado em ambientes que podem ser diferentes do ambiente de treinamento.

Aplicações de regularização

A regularização é utilizada numa vasta gama de aplicações de ML, incluindo:

Exemplos de aplicações de IA/ML do mundo real

  1. Diagnóstico médico: Nos cuidados de saúde, os modelos de IA são utilizados para analisar imagens médicas, como radiografias ou ressonâncias magnéticas, para deteção e diagnóstico de anomalias. As técnicas de regularização, como a regularização de desistência e L2, são aplicadas às CNNs para garantir que os modelos não se ajustam demasiado aos dados de treino e podem identificar com precisão potenciais problemas de saúde em exames de novos pacientes. Para uma exploração mais aprofundada, vê como a IA está a transformar a radiologia.
  2. Carros autónomos: Os veículos autónomos dependem fortemente de modelos de visão por computador para deteção de objectos, deteção de faixas e compreensão de cenas. Métodos de regularização, incluindo aumento de dados e parada antecipada, são empregados para treinar modelos robustos que podem generalizar bem para diversas condições e ambientes de condução. Sabe mais sobre a IA de visão na condução autónoma.

Regularização e termos relacionados

A regularização está intimamente relacionada com outros conceitos em ML, tais como a troca de viés-variância, sobreajuste e subajuste. Embora a regularização ajude a evitar o sobreajuste através do controlo da complexidade do modelo, é importante encontrar um equilíbrio entre o enviesamento e a variância. Um modelo demasiado simples pode não se ajustar aos dados, ao passo que um modelo demasiado complexo pode ajustar-se demasiado. A afinação de hiperparâmetros é frequentemente utilizada para encontrar o nível ótimo de regularização para um determinado modelo e conjunto de dados.

Conclusão

A regularização é uma técnica essencial no conjunto de ferramentas do profissional de ML. Ao compreender e aplicar vários métodos de regularização, os profissionais podem criar modelos mais robustos e generalizáveis que funcionam bem em dados novos e não vistos. Quer estejas a trabalhar com dados de imagem, dados de texto ou outros tipos de dados, a regularização pode ajudar-te a melhorar o desempenho e a fiabilidade dos teus modelos de ML. Para obter mais informações sobre visão computacional e modelos de última geração, como Ultralytics YOLO , visita o blogueUltralytics .

Lê tudo