Повысьте точность и устойчивость моделей ИИ с помощью сглаживания меток - проверенной техники, позволяющей улучшить обобщение и уменьшить чрезмерную уверенность.
Label Smoothing - это метод регуляризации, используемый при обучении моделей машинного обучения, в частности, в задачах классификации. Она решает проблему чрезмерной уверенности модели, не позволяя ей присваивать правильному классу полную вероятность 1.0. Вместо того чтобы использовать "жесткие" метки (где правильный класс равен 1, а все остальные - 0), Label Smoothing создает "мягкие" метки, распределяя небольшую часть массы вероятностей между другими классами. Это побуждает модель быть менее уверенной в своих предсказаниях, что может привести к лучшему обобщению и улучшению производительности на неизвестных данных. Эта техника часто используется в высокоэффективных моделях и подробно описана в таких статьях, как "Когда сглаживание меток помогает?
В типичной задаче классификации с контролируемым обучением обучающие данные состоят из входных данных и соответствующих им правильных меток. Например, в задаче классификации изображений изображение кошки будет иметь метку "кошка", представленную в виде одноточечного закодированного вектора, как для классов [кошка, собака, птица]. При вычислении функции потерь модель штрафуется в зависимости от того, насколько далеко ее предсказание находится от этой жесткой цели.
Сглаживание меток изменяет эту цель. Она немного уменьшает целевую вероятность для правильного класса (например, до 0,9) и равномерно распределяет оставшуюся небольшую вероятность (0,1 в данном случае) между неправильными классами. Таким образом, новая "мягкая" цель может выглядеть как [0,9, 0,05, 0,05]. Это небольшое изменение не позволяет последнему слою логита нейронной сети выдавать очень большие значения для одного класса, что помогает предотвратить перебор. Этот процесс можно контролировать во время обучения модели с помощью таких платформ, как Ultralytics HUB.
Основное преимущество сглаживания меток заключается в том, что оно улучшает калибровку модели. Хорошо откалиброванные прогнозные оценки достоверности модели более точно отражают истинную вероятность правильности. Это очень важно для приложений, где важно понимание уверенности модели, например, при анализе медицинских изображений. Предотвращение чрезмерной уверенности также улучшает способность модели к обобщению на новые данные, что является ключевой целью любого проекта машинного обучения. Это часто приводит к небольшому увеличению точности. Лучшее обобщение приводит к созданию более надежных моделей для выводов в реальном времени и окончательного развертывания модели.
Сглаживание меток - это простая, но эффективная техника, применяемая в различных современных моделях.
Важно отличать Label Smoothing от других методов регуляризации.