Melhora a precisão e a robustez do modelo de IA com a suavização de rótulos - uma técnica comprovada para melhorar a generalização e reduzir o excesso de confiança.
A suavização de rótulos é uma técnica de regularização usada durante o treinamento de modelos de classificação em aprendizado de máquina (ML) e aprendizado profundo (DL). O seu principal objetivo é evitar que o modelo se torne demasiado confiante nas suas previsões. Em vez de treinar o modelo usando rótulos "rígidos" (em que a classe correta recebe uma probabilidade de 1 e todas as outras classes 0), a suavização de rótulos usa rótulos "suaves". Isto significa que à classe correta é atribuída uma probabilidade ligeiramente inferior (por exemplo, 0,9), e a pequena probabilidade restante é distribuída uniformemente pelas classes incorrectas. Esta técnica incentiva o modelo a ter menos certezas sobre as suas previsões, o que pode levar a uma melhor generalização e a um melhor desempenho em dados não vistos. Foi discutida no artigo Repensando a arquitetura de início.
Em tarefas de classificação padrão, os modelos são frequentemente treinados usando uma função de perda como a entropia cruzada, que penaliza o modelo com base na distância entre a distribuição de probabilidade prevista e a distribuição de destino (rótulos rígidos). Com rótulos rígidos, o modelo é forçado a tornar a probabilidade de saída para a classe correta extremamente próxima de 1 e as outras próximas de 0. Isto pode levar a um sobreajuste, em que o modelo aprende demasiado bem os dados de treino, incluindo o seu ruído, e tem um desempenho fraco em novos dados. A suavização de rótulos modifica os rótulos-alvo atribuindo um pequeno valor de probabilidade (epsilon) às classes incorretas e reduzindo a probabilidade da classe correta pela quantidade total distribuída. Isso evita que o modelo produza valores de logit excessivamente grandes para a classe correta, promovendo um modelo menos confiante e potencialmente mais robusto.
A suavização de etiquetas é amplamente aplicável, particularmente em tarefas de classificação em diferentes domínios:
Embora geralmente benéfica, a suavização de etiquetas pode abrandar ligeiramente a convergência do modelo durante o treino. A extensão do seu benefício também pode depender do conjunto de dados e da arquitetura do modelo. O próprio fator de suavização (epsilon) é um hiperparâmetro que pode necessitar de ser ajustado para obter resultados óptimos. É frequentemente integrado nos pipelines de formação de estruturas e plataformas modernas, como o Ultralytics HUB.