Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Suavização de rótulos

Saiba como o alisamento de rótulos evita o sobreajuste e melhora a generalização do modelo. Descubra como implementar essa técnica com Ultralytics para obter melhores resultados.

O alisamento de rótulos é uma técnica de regularização amplamente utilizada na aprendizagem automática para melhorar a generalização do modelo e evitar o sobreajuste. Ao treinar redes neurais, o objetivo é normalmente minimizar o erro entre as previsões e a verdade fundamental. No entanto, se um modelo se torna muito confiante nas suas previsões — atribuindo quase 100% de probabilidade a uma única classe —, muitas vezes começa a memorizar o ruído específico nos dados de treino, em vez de aprender padrões robustos. Esse fenômeno, conhecido como sobreajuste, degrada o desempenho em exemplos novos e inéditos. O suavização de rótulos resolve isso, desencorajando o modelo a fazer previsões com certeza absoluta, essencialmente dizendo à rede que sempre há uma pequena margem de erro.

A mecânica dos alvos fáceis

Para entender como funciona o suavização de rótulos, é útil compará-lo com os alvos "rígidos" padrão. No tradicional aprendizagem supervisionada, as etiquetas de classificação são normalmente representadas através de codificação one-hot. Por exemplo, numa tarefa que distingue entre gatos e cães, uma imagem de «cão» teria um vetor alvo de [0, 1]. Para corresponder perfeitamente a isso, o modelo impulsiona as suas pontuações internas, conhecidas como logits, em direção ao infinito, o que pode levar a gradientes instáveis e à incapacidade de adaptação.

A suavização de rótulos substitui esses 1s e 0s rígidos por alvos "suaves". Em vez de uma probabilidade alvo de 1.0, a classe correta pode ser atribuída 0.9, enquanto a massa de probabilidade restante (0.1) é distribuído uniformemente pelas classes incorretas. Esta mudança subtil modifica o objetivo do função de perda, tais como entropia cruzada, impedindo o função de ativação (normalmente Softmax) de saturar. O resultado é um modelo que aprende grupos mais restritos de classes no espaço de características e produz melhores calibração do modelo, o que significa que as probabilidades previstas refletem com mais precisão a verdadeira probabilidade de correção.

Aplicações no Mundo Real

Esta técnica é particularmente crítica em domínios onde a ambiguidade dos dados é inerente ou os conjuntos de dados são propensos a erros de rotulagem .

  • Diagnóstico médico: No campo da IA na área da saúde, os dados clínicos raramente são preto no branco. Por exemplo, na análise de imagens médicas, um exame pode mostrar características que são altamente sugestivas de uma doença, mas não definitivas. O treino com rótulos rígidos força o modelo a ignorar essa incerteza. Ao aplicar o suavização de rótulos, o modelo mantém um certo grau de ceticismo, o que é vital para sistemas de apoio à decisão, nos quais o excesso de confiança pode levar a diagnósticos errados.
  • Classificação de imagens em grande escala: conjuntos de dados públicos massivos, como ImageNet , muitas vezes contêm imagens mal rotuladas ou imagens que contêm vários objetos válidos. Se um modelo tenta ajustar esses exemplos ruidosos com 100% de confiança, ele aprende associações incorretas. O alisamento de rótulos atua como um amortecedor contra o ruído de rótulos, garantindo que alguns pontos de dados ruins não distorçam drasticamente os pesos finais do modelo.

Implementação da suavização de etiquetas com Ultralytics

As estruturas modernas de aprendizagem profunda simplificam a aplicação desta técnica. Utilizando o ultralytics pacote, pode facilmente integrar o alisamento de rótulos no seu pipeline de treino para classificação de imagens ou tarefas de deteção. Isso é frequentemente feito para extrair desempenho extra de modelos de última geração, como YOLO26.

O exemplo a seguir demonstra como treinar um modelo de classificação com suavização de rótulos ativada:

from ultralytics import YOLO

# Load a pre-trained YOLO26 classification model
model = YOLO("yolo26n-cls.pt")

# Train with label_smoothing set to 0.1
# The target for the correct class becomes 1.0 - 0.5 * 0.1 = 0.95 (depending on implementation specifics)
model.train(data="mnist", epochs=5, label_smoothing=0.1)

Comparação com Conceitos Relacionados

É útil distinguir o alisamento de rótulos de outras estratégias de regularização para entender quando usá-lo.

  • vs. Dropout: Uma camada de dropout desativa aleatoriamente neurónios durante o treinamento para forçar a rede a aprender representações redundantes. Embora ambos evitem o sobreajuste, o dropout modifica a arquitetura da rede dinamicamente, enquanto o label smoothing modifica o alvo de otimização (os próprios rótulos ).
  • vs. Destilação de conhecimento: Ambas as técnicas envolvem treino em alvos flexíveis. No entanto, na destilação de conhecimento, os alvos flexíveis provêm de um modelo «professor» e contêm informações aprendidas (por exemplo, «isto parece-se 10% com um gato»). Em contrapartida, o alisamento de rótulos usa alvos fáceis "não informativos" derivados matematicamente (por exemplo, "dê 10% de probabilidade a todas as outras classes igualmente").
  • vs. Aumento de dados: as estratégias para o aumento de dados alteram os dados de entrada (rotação, recorte, coloração) para aumentar a variedade. O suavização de rótulos altera as expectativas de saída. Os fluxos de trabalho de treino abrangentes na Ultralytics frequentemente combinam aumento, dropout e suavização de rótulos para alcançar a máxima precisão.

Ao mitigar o problema do gradiente de desaparecimento nas camadas finais e incentivar o modelo a aprender características mais robustas, o alisamento de rótulos continua a ser um elemento básico nas arquiteturas modernas de aprendizagem profunda.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora