Глоссарий

Заниженная посадка

Узнай, что такое underfitting, каковы его причины, признаки и способы решения. Узнай, как улучшить производительность модели и избежать проблем с недоподгонкой.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Недооптимизация возникает, когда модель машинного обучения слишком проста, чтобы отразить глубинную структуру данных. Обычно это происходит, когда у модели слишком мало параметров или характеристик по сравнению со сложностью данных, которые она пытается изучить. В результате модель не может адекватно обучаться на обучающих данных и показывает плохие результаты не только на обучающем множестве, но и на невидимых данных, таких как валидационный или тестовый набор.

Основные характеристики недостаточной подгонки

Неподходящие модели часто характеризуются высокой погрешностью и низкой дисперсией. Под смещением понимается ошибка, возникающая при аппроксимации реальной проблемы, которая может быть сложной, упрощенной моделью. Недостаточно подходящая модель делает слишком упрощенные предположения о данных, что приводит к систематическим ошибкам. Дисперсия, с другой стороны, относится к чувствительности модели к колебаниям в обучающих данных. Низкая дисперсия у недоукомплектованных моделей объясняется тем, что они слишком просты, чтобы изменения в обучающих данных сильно на них повлияли. Однако эта простота также означает, что они не могут уловить важные закономерности и нюансы в данных.

Причины недостаточной подгонки

Несколько факторов могут способствовать недостаточной подгонке:

  • Сложность модели: Использование модели, которая слишком проста для сложности данных. Например, попытка подогнать линейную модель к данным с крайне нелинейной зависимостью.
  • Недостаточное обучение: Недостаточное количество эпох обучения модели или слишком высокая скорость обучения приводят к тому, что модель сходится преждевременно, не успев изучить основные закономерности.
  • Плохая проработка признаков: Не включил релевантные признаки или использовал признаки, которые неадекватно представляют базовую структуру данных. Эффективная разработка признаков очень важна для построения моделей, которые могут хорошо обобщать.
  • Чрезмерная регуляризация: Применение слишком большой регуляризации, которая наказывает сложность модели и может помешать ей изучить важные закономерности.

Обнаружение недостаточной подгонки

Выявление недостаточной подгонки очень важно для улучшения работы модели. Признаки недостаточной подгонки включают в себя:

  • Высокая ошибка обучения: Модель плохо справляется с обучающими данными, что говорит о том, что она не усвоила основные закономерности.
  • Высокая ошибка валидации/тестирования: Плохая производительность на валидационных или тестовых наборах, схожая с ошибкой обучения, говорит о том, что модель слишком упрощена.
  • Кривые обучения: Построение графика производительности модели на тренировочном и проверочном наборах с течением времени может выявить недостаточное соответствие. Если обе кривые выходят на плато при высоком уровне ошибок, то модель, скорее всего, недонастраивается.

Решение проблемы недостаточной подгонки

Чтобы побороть недостаточное соответствие, рассмотри следующие стратегии:

  • Увеличь сложность модели: Используй более сложную модель с большим количеством параметров или слоев. Например, перейди от линейной модели к полиномиальной или от поверхностной к глубокой нейронной сети.
  • Тренируйся дольше: увеличь количество эпох обучения или отрегулируй скорость обучения, чтобы у модели было больше времени на обучение на основе данных.
  • Улучши инженерию характеристик: Добавь больше релевантных признаков или преобразуй существующие, чтобы лучше представлять структуру данных. В этом могут помочь такие техники, как создание терминов взаимодействия или полиномиальных признаков.
  • Уменьшить регуляризацию: Уменьши количество регуляризации, применяемой к модели, что позволит ей более точно соответствовать тренировочным данным.

Заниженная посадка против завышенной посадки

Важно отличать недоподгонку от переподгонки. Недофиттинг возникает, когда модель слишком проста, а оверфиттинг - когда модель слишком сложна и начинает запоминать обучающие данные, включая шум и провалы. Модели с избыточной подгонкой работают исключительно хорошо на обучающих данных, но плохо на невидимых данных. Баланс между сложностью модели и обучением очень важен для того, чтобы избежать как недофитинга, так и перефитинга.

Примеры из реальной жизни

Пример 1: Прогнозирование цен на жилье

Представь, что ты строишь модель для предсказания цен на дома в зависимости от их размера. Если ты используешь простую линейную регрессионную модель и предположишь, что цены на дома растут линейно в зависимости от размера, ты можешь недооценить данные. В реальности связь между размером дома и ценой, скорее всего, более сложная, включающая такие факторы, как уменьшающаяся отдача при больших размерах или премиальные цены для определенных диапазонов размеров. Линейная модель не сможет учесть эти нюансы, что приведет к плохой предсказательной эффективности как на тренировочных, так и на новых данных.

Пример 2: Классификация изображений

Рассмотрим задачу классификации изображений, в которой ты пытаешься отнести изображения животных к разным категориям. Если ты используешь очень простую модель, например логистическую регрессию, ты можешь недооценить данные. Классификация изображений часто требует улавливания сложных паттернов и особенностей в изображениях, с чем простая модель не справится. В результате модель будет плохо работать как на обучающем множестве, так и на новых, не виденных изображениях. Использование более сложной модели, например, конволюционной нейронной сети (CNN), может значительно улучшить производительность.

Понимая причины и признаки недостаточной подгонки, специалисты могут предпринять соответствующие шаги для улучшения своих моделей. Такие инструменты, как Ultralytics YOLOv8 , предоставляют расширенные возможности для построения и настройки сложных моделей, помогая избежать недостаточной подгонки и улучшить производительность в различных задачах компьютерного зрения. Чтобы узнать больше о тренировке и оптимизации моделей, посети блогUltralytics .

Читать полностью