Оптимизируй модели машинного обучения с помощью валидных данных, чтобы предотвратить перебор, настроить гиперпараметры и обеспечить надежную работу в реальном мире.
Валидационные данные - важнейший компонент в цикле разработки Machine Learning (ML). Это отдельное подмножество исходного набора данных, отличное от обучающих данных, использованных для подгонки модели, и тестовых данных, используемых для окончательной оценки. Основная цель валидационных данных - обеспечить беспристрастную оценку соответствия модели на обучающем наборе данных при настройке гиперпараметров модели и принятии решений об архитектуре модели. Этот процесс помогает выбрать наилучшую конфигурацию модели, прежде чем оценивать ее окончательную производительность на невидимых данных.
В процессе обучения модели ML-модель изучает закономерности на основе обучающих данных. Однако оценка модели только по этим данным может ввести в заблуждение, так как модель может просто запомнить обучающие примеры, а это явление известно как overfitting. Валидационные данные выступают в качестве контрольной точки. Оценивая работу модели на этом отдельном наборе периодически во время обучения, разработчики могут:
Понимание различий между тренировочными, валидационными и тестовыми наборами данных имеет фундаментальное значение для разработки надежных моделей:
Правильное разделение, часто осуществляемое с помощью таких инструментов, как Ultralytics HUB для версионирования и управления наборами данных, гарантирует, что информация из тестового набора не "просочится" в процесс обучения или выбора модели, что приведет к чрезмерно оптимистичным оценкам производительности.
Валидационные данные незаменимы для настройки гиперпараметров. Гиперпараметры - это внешние по отношению к самой модели параметры конфигурации, задаваемые до начала процесса обучения. В качестве примера можно привести скорость обучения, количество слоев в нейронной сети или тип используемого алгоритма оптимизации. Разработчики обучают несколько версий модели с различными комбинациями гиперпараметров, оценивают каждую из них на валидационном множестве и выбирают ту комбинацию, которая дает наилучшую производительность. Этот систематический поиск можно автоматизировать с помощью таких методов, как Grid Search или Bayesian Optimization, что часто облегчается платформами, интегрированными с инструментами MLOps.
Когда количество доступных данных ограничено, часто используется техника, называемая кросс-валидацией (в частности, K-Fold Cross-Validation). Здесь обучающие данные разбиваются на "K" подмножеств (складок). Модель обучается K раз, каждый раз используя K-1 складку для обучения, а оставшуюся складку - в качестве валидационного набора. Затем производительность усредняется по всем K прогонам. Это дает более надежную оценку производительности модели и позволяет лучше использовать ограниченные данные, как объясняется в руководствеUltralytics по перекрестной валидации K-Fold.
В общем, валидационные данные - это краеугольный камень построения надежных и высокопроизводительных моделей искусственного интеллекта (ИИ). Они позволяют эффективно настраивать гиперпараметры, подбирать модели и предотвращать перебор, гарантируя, что модели будут обобщать гораздо больше данных, на которых они были обучены.