Glossário

Suavização de etiquetas

Descobre como a suavização de etiquetas melhora os modelos de aprendizagem automática, reduzindo o sobreajuste, melhorando a generalização e aumentando a fiabilidade da previsão.

Treina os modelos YOLO simplesmente
com Ultralytics HUB

Aprende mais

A suavização de rótulos é uma técnica de regularização normalmente utilizada no treino de modelos de aprendizagem automática, particularmente em tarefas de classificação. Envolve a modificação dos rótulos da verdade básica para que sejam menos confiáveis, substituindo a codificação pontual dos rótulos por uma versão suavizada. Este ajuste reduz o excesso de confiança nas previsões do modelo, melhora a generalização e atenua o sobreajuste.

Como funciona o alisamento de etiquetas

Num problema de classificação típico, a codificação de um ponto atribui uma probabilidade de 1 à classe correta e de 0 a todas as outras classes. A suavização de rótulos ajusta essas probabilidades redistribuindo uma pequena fração da confiança da classe correta para todas as classes. Por exemplo, em vez de representar um rótulo como [1, 0, 0]a suavização de etiquetas pode representá-lo como [0.9, 0.05, 0.05] para um fator de regularização de 0,1.

Ao suavizar a verdade fundamental, o modelo evita tornar-se demasiado confiante nas suas previsões. Isto torna o modelo mais robusto, particularmente em cenários em que os dados contêm ruído ou são difíceis de classificar.

Benefícios do alisamento de etiquetas

  1. Generalização aprimorada: Ao reduzir o excesso de confiança nas previsões, a suavização de rótulos ajuda os modelos a generalizar melhor para dados não vistos.
  2. Atenua o sobreajuste: Actua como um regularizador, tornando o modelo menos sensível ao ruído nas etiquetas de treino.
  3. Calibração aprimorada: Os modelos treinados com suavização de rótulos produzem frequentemente probabilidades mais bem calibradas, que estão mais próximas da probabilidade real de correção.

Aplicações de suavização de rótulos

Classificação de imagens

A suavização de etiquetas é amplamente utilizada em tarefas de classificação de imagens para melhorar a calibração e o desempenho do modelo. Por exemplo, modelos como os treinados no conjunto de dados ImageNet para classificação de imagens utilizam frequentemente a suavização de etiquetas para obter uma melhor generalização e reduzir o sobreajuste.

Processamento de linguagem natural (PNL)

Na PNL, a suavização de etiquetas é utilizada em tarefas de sequência para sequência, como a tradução automática. Os modelos linguísticos de grande escala, como o BERT (Bidirectional Encoder Representations from Transformers) e os modelos baseados em transformadores, beneficiam da suavização de etiquetas durante a formação para garantir uma aprendizagem estável e evitar o excesso de confiança nas previsões.

Exemplos do mundo real

  1. Automóveis autónomos: Nos sistemas de veículos autónomos, a suavização de rótulos é aplicada a modelos treinados para tarefas de classificação de imagens e deteção de objectos. Por exemplo, conjuntos de dados como COCO para deteção avançada de objectos beneficiam desta técnica para melhorar a robustez de modelos como Ultralytics YOLO , que é amplamente utilizado na deteção de objectos para sistemas de condução autónoma.

  2. Diagnóstico na área da saúde: Em aplicações de imagiologia médica, como a deteção de tumores utilizando o conjunto de dados de deteção de tumores cerebrais, a suavização de rótulos aumenta a fiabilidade das previsões. Reduz o risco de o modelo ficar demasiado confiante em classificações incorrectas, o que é fundamental em domínios de grande importância como os cuidados de saúde.

Suavização de rótulos Vs. Conceitos relacionados

  • Sobreajuste: A suavização de rótulos combate diretamente o ajuste excessivo, desencorajando o modelo de ser excessivamente confiante nos dados de treinamento. Saiba mais sobre como detetar e evitar o ajuste excessivo em modelos na página do glossário de ajuste excessivo.
  • Regularização: Embora a suavização de rótulos seja uma forma de regularização, ela difere de técnicas como a regularização L2 ou o dropout. Esses métodos se concentram em penalizar pesos ou reduzir a dependência de neurônios específicos, enquanto a regularização de rótulos modifica os próprios rótulos de destino. Para um mergulho mais profundo na regularização, visita a página do glossário de regularização.
  • Perda de entropia cruzada: A suavização de rótulos modifica a perda de entropia cruzada tradicional, introduzindo um fator de suavização no cálculo da função de perda. Para explorar melhor as funções de perda, visita a página do glossário de funções de perda.

Implementar a suavização de etiquetas com o Ultralytics HUB

Ultralytics O HUB fornece uma integração perfeita para treinar modelos de classificação com suavização de rótulos. Quer estejas a trabalhar com conjuntos de dados como o CIFAR-10 para classificação de imagens ou conjuntos de dados personalizados, o Ultralytics HUB simplifica o processo de definição de hiperparâmetros, incluindo factores de suavização de etiquetas, para otimizar o desempenho do teu modelo.

Conclusão

A suavização de rótulos é uma técnica simples, mas poderosa, que aumenta a robustez e a fiabilidade dos modelos de aprendizagem automática. Ao suavizar os rótulos de destino, ajuda os modelos a generalizar melhor, evitar o sobreajuste e produzir previsões bem calibradas. Quer estejas a trabalhar na classificação de imagens, PNL ou deteção de objectos, a suavização de rótulos é uma ferramenta valiosa no teu conjunto de ferramentas de aprendizagem automática. Para obter mais informações sobre técnicas e aplicações relacionadas, explora o glossário de IA e visão computacional em Ultralytics.

Lê tudo