Saiba como o alisamento de rótulos evita o sobreajuste e melhora a generalização do modelo. Descubra como implementar essa técnica com Ultralytics para obter melhores resultados.
O alisamento de rótulos é uma técnica de regularização amplamente utilizada na aprendizagem automática para melhorar a generalização do modelo e evitar o sobreajuste. Ao treinar redes neurais, o objetivo é normalmente minimizar o erro entre as previsões e a verdade fundamental. No entanto, se um modelo se torna muito confiante nas suas previsões — atribuindo quase 100% de probabilidade a uma única classe —, muitas vezes começa a memorizar o ruído específico nos dados de treino, em vez de aprender padrões robustos. Esse fenômeno, conhecido como sobreajuste, degrada o desempenho em exemplos novos e inéditos. O suavização de rótulos resolve isso, desencorajando o modelo a fazer previsões com certeza absoluta, essencialmente dizendo à rede que sempre há uma pequena margem de erro.
Para entender como funciona o suavização de rótulos, é útil compará-lo com os alvos "rígidos" padrão. No
tradicional aprendizagem supervisionada, as etiquetas de classificação
são normalmente representadas através de codificação one-hot. Por exemplo,
numa tarefa que distingue entre gatos e cães, uma imagem de «cão» teria um vetor alvo de
[0, 1]. Para corresponder perfeitamente a isso, o modelo impulsiona as suas pontuações internas, conhecidas como
logits, em direção ao infinito, o que pode levar
a gradientes instáveis e à incapacidade de adaptação.
A suavização de rótulos substitui esses 1s e 0s rígidos por alvos "suaves". Em vez de uma probabilidade alvo de
1.0, a classe correta pode ser atribuída 0.9, enquanto a massa de probabilidade restante
(0.1) é distribuído uniformemente pelas classes incorretas. Esta mudança subtil modifica o objetivo do função de perda, tais como
entropia cruzada, impedindo o
função de ativação (normalmente
Softmax) de saturar. O resultado é um modelo que aprende
grupos mais restritos de classes no espaço de características e produz melhores
calibração do modelo, o que significa que as
probabilidades previstas refletem com mais precisão a verdadeira probabilidade de correção.
Esta técnica é particularmente crítica em domínios onde a ambiguidade dos dados é inerente ou os conjuntos de dados são propensos a erros de rotulagem .
As estruturas modernas de aprendizagem profunda simplificam a aplicação desta técnica. Utilizando o
ultralytics pacote, pode facilmente integrar o alisamento de rótulos no seu pipeline de treino para
classificação de imagens ou tarefas de deteção. Isso
é frequentemente feito para extrair desempenho extra de modelos de última geração, como
YOLO26.
O exemplo a seguir demonstra como treinar um modelo de classificação com suavização de rótulos ativada:
from ultralytics import YOLO
# Load a pre-trained YOLO26 classification model
model = YOLO("yolo26n-cls.pt")
# Train with label_smoothing set to 0.1
# The target for the correct class becomes 1.0 - 0.5 * 0.1 = 0.95 (depending on implementation specifics)
model.train(data="mnist", epochs=5, label_smoothing=0.1)
É útil distinguir o alisamento de rótulos de outras estratégias de regularização para entender quando usá-lo.
Ao mitigar o problema do gradiente de desaparecimento nas camadas finais e incentivar o modelo a aprender características mais robustas, o alisamento de rótulos continua a ser um elemento básico nas arquiteturas modernas de aprendizagem profunda.