Глоссарий

Сглаживание этикетки

Узнай, как сглаживание меток улучшает модели машинного обучения, уменьшая перебор, улучшая обобщение и повышая надежность предсказаний.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Сглаживание меток - это техника регуляризации, которая часто используется при обучении моделей машинного обучения, особенно в задачах классификации. Она заключается в изменении истинных меток на менее достоверные, заменяя одноточечное кодирование меток на сглаженную версию. Такая корректировка уменьшает чрезмерную уверенность в предсказаниях модели, улучшает обобщение и смягчает перебор.

Как работает разглаживание этикеток

В типичной задаче классификации одноточечное кодирование присваивает вероятность 1 правильному классу и 0 всем остальным классам. Сглаживание меток корректирует эти вероятности, перераспределяя небольшую долю уверенности от правильного класса ко всем классам. Например, вместо того чтобы представлять метку как [1, 0, 0]Сглаживание меток может представить это как [0.9, 0.05, 0.05] для коэффициента сглаживания 0,1.

Смягчая базовую истину, модель избегает чрезмерной уверенности в своих предсказаниях. Это делает модель более надежной, особенно в сценариях, где данные содержат шум или их сложно классифицировать.

Преимущества разглаживания накладок

  1. Улучшение обобщения: Уменьшая излишнюю уверенность в предсказаниях, сглаживание меток помогает моделям лучше обобщаться на невидимых данных.
  2. Смягчение избыточной подгонки: Он действует как регуляризатор, делая модель менее чувствительной к шуму в обучающих метках.
  3. Улучшенная калибровка: Модели, обученные с помощью сглаживания меток, часто дают лучше откалиброванные вероятности, которые ближе к реальной вероятности правильности.

Применение сглаживания этикеток

Классификация изображений

Сглаживание меток широко используется в задачах классификации изображений для улучшения калибровки и производительности модели. Например, модели, обученные на наборе данных ImageNet для классификации изображений, часто используют сглаживание меток для достижения лучшего обобщения и уменьшения избыточной подгонки.

Обработка естественного языка (NLP)

В NLP сглаживание меток используется в задачах "последовательность-последовательность", таких как машинный перевод. Крупномасштабные языковые модели, такие как BERT (Bidirectional Encoder Representations from Transformers) и модели на основе трансформаторов, выигрывают от сглаживания меток во время обучения, чтобы обеспечить стабильное обучение и избежать чрезмерной уверенности в предсказаниях.

Примеры из реальной жизни

  1. Самоуправляемые автомобили: В системах автономных автомобилей сглаживание меток применяется к моделям, обученным для классификации изображений и задач обнаружения объектов. Например, такие наборы данных, как COCO для расширенного обнаружения объектов, используют эту технику для повышения надежности таких моделей, как Ultralytics YOLO , которая широко используется для обнаружения объектов в системах автономного вождения.

  2. Диагностика в здравоохранении: В приложениях медицинской визуализации, таких как обнаружение опухолей с помощью набора данных для обнаружения опухолей мозга, сглаживание меток повышает надежность предсказаний. Оно снижает риск того, что модель будет слишком уверена в неправильных классификациях, что очень важно в таких ответственных областях, как здравоохранение.

Сглаживание этикеток против. Смежные понятия

  • Переоценка: Сглаживание меток напрямую борется с оверфитингом, не позволяя модели слишком доверять обучающим данным. Узнай больше о том, как обнаружить и предотвратить перебор в моделях, на странице глоссария "Перебор".
  • Регуляризация: Хотя сглаживание меток - это одна из форм регуляризации, она отличается от таких методов, как L2-регуляризация или отсев. Эти методы направлены на штрафование весов или уменьшение зависимости от конкретных нейронов, в то время как сглаживание меток изменяет сами целевые метки. Для более глубокого погружения в тему регуляризации посети страницу глоссария регуляризации.
  • Кросс-энтропийные потери: Сглаживание меток модифицирует традиционную кросс-энтропийную потерю, вводя в расчет функции потерь коэффициент сглаживания. Чтобы глубже изучить функции потерь, посети страницу глоссария функций потерь.

Реализация сглаживания меток с помощью Ultralytics HUB

Ultralytics HUB обеспечивает бесшовную интеграцию для обучения моделей классификации со сглаживанием меток. Независимо от того, работаешь ли ты с такими наборами данных, как CIFAR-10 для классификации изображений, или с пользовательскими наборами данных, Ultralytics HUB упрощает процесс настройки гиперпараметров, включая коэффициенты сглаживания меток, для оптимизации производительности твоей модели.

Заключение

Сглаживание меток - это простая, но мощная техника, которая повышает устойчивость и надежность моделей машинного обучения. Смягчая целевые метки, она помогает моделям лучше обобщаться, избегать перебора и выдавать хорошо откалиброванные предсказания. Независимо от того, работаешь ли ты над классификацией изображений, NLP или обнаружением объектов, сглаживание меток - ценный инструмент в твоем наборе средств машинного обучения. Чтобы узнать больше о смежных техниках и приложениях, изучи глоссарий по искусственному интеллекту и компьютерному зрению по ссылке Ultralytics.

Читать полностью