Glossário

Suavização de etiquetas

Melhora a precisão e a robustez do modelo de IA com a suavização de rótulos - uma técnica comprovada para melhorar a generalização e reduzir o excesso de confiança.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A suavização de rótulos é uma técnica de regularização usada durante o treinamento de modelos de classificação em aprendizado de máquina (ML) e aprendizado profundo (DL). O seu principal objetivo é evitar que o modelo se torne demasiado confiante nas suas previsões. Em vez de treinar o modelo usando rótulos "rígidos" (em que a classe correta recebe uma probabilidade de 1 e todas as outras classes 0), a suavização de rótulos usa rótulos "suaves". Isto significa que à classe correta é atribuída uma probabilidade ligeiramente inferior (por exemplo, 0,9), e a pequena probabilidade restante é distribuída uniformemente pelas classes incorrectas. Esta técnica incentiva o modelo a ter menos certezas sobre as suas previsões, o que pode levar a uma melhor generalização e a um melhor desempenho em dados não vistos. Foi discutida no artigo Repensando a arquitetura de início.

Como funciona o alisamento de etiquetas

Em tarefas de classificação padrão, os modelos são frequentemente treinados usando uma função de perda como a entropia cruzada, que penaliza o modelo com base na distância entre a distribuição de probabilidade prevista e a distribuição de destino (rótulos rígidos). Com rótulos rígidos, o modelo é forçado a tornar a probabilidade de saída para a classe correta extremamente próxima de 1 e as outras próximas de 0. Isto pode levar a um sobreajuste, em que o modelo aprende demasiado bem os dados de treino, incluindo o seu ruído, e tem um desempenho fraco em novos dados. A suavização de rótulos modifica os rótulos-alvo atribuindo um pequeno valor de probabilidade (epsilon) às classes incorretas e reduzindo a probabilidade da classe correta pela quantidade total distribuída. Isso evita que o modelo produza valores de logit excessivamente grandes para a classe correta, promovendo um modelo menos confiante e potencialmente mais robusto.

Benefícios do alisamento de etiquetas

  • Generalização melhorada: Ao desencorajar o excesso de confiança, os modelos geralmente generalizam melhor para dados não vistos.
  • Calibra melhor o modelo: As probabilidades previstas tendem a ser um reflexo mais preciso da verdadeira probabilidade de correção. Podes saber mais sobre a calibração de modelos em estatística.
  • Aumenta a robustez: Os modelos podem tornar-se mais resistentes a etiquetas com ruído ou a pequenas variações nos dados de entrada.
  • Reduz o sobreajuste: Actua como um regularizador, ajudando a mitigar o sobreajuste, semelhante em espírito a técnicas como Dropout ou Data Augmentation, embora opere diretamente nas etiquetas alvo.

Aplicações da suavização de rótulos

A suavização de etiquetas é amplamente aplicável, particularmente em tarefas de classificação em diferentes domínios:

Considerações

Embora geralmente benéfica, a suavização de etiquetas pode abrandar ligeiramente a convergência do modelo durante o treino. A extensão do seu benefício também pode depender do conjunto de dados e da arquitetura do modelo. O próprio fator de suavização (epsilon) é um hiperparâmetro que pode necessitar de ser ajustado para obter resultados óptimos. É frequentemente integrado nos pipelines de formação de estruturas e plataformas modernas, como o Ultralytics HUB.

Lê tudo