Глоссарий

Стохастический градиентный спуск (SGD)

Изучи стохастический градиентный спуск - быстрый и эффективный алгоритм оптимизации глубокого обучения, используемый в ИИ, например в Ultralytics YOLO моделях для задач реального времени.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Стохастический градиентный спуск (СГС) - популярный алгоритм оптимизации, используемый для обучения моделей машинного обучения, особенно в глубоком обучении. Это итерационный метод минимизации объективной функции, обычно функции потерь, которая имеет решающее значение как в контролируемом, так и в неконтролируемом обучении. В отличие от стандартного градиентного спуска, который использует весь набор данных для вычисления градиента функции потерь, SGD использует случайное подмножество данных на каждом шаге, что делает его быстрее и эффективнее, особенно на больших наборах данных.

Как работает SGD

SGD обновляет параметры модели, перемещая их в направлении, противоположном градиенту функции потерь. Он оценивает градиент, используя только один или несколько обучающих примеров, обеспечивая частые обновления и ускоряя сходимость в сценариях с большими объемами данных. Это делает SGD привлекательным для многих приложений ИИ, в том числе для тех, которые используют Ultralytics YOLO для обнаружения и сегментации объектов в реальном времени.

Основные характеристики

  • Эффективность: Рассматривая только подмножество данных, SGD снижает накладные расходы по сравнению с методами полного цикла, такими как Gradient Descent.

  • Сходимость: Хотя SGD может колебаться сильнее, чем Batch Gradient Descent, из-за своей стохастической природы, он часто находит лучшие решения, избегая локальных минимумов.

  • Гибкость: SGD совместим с различными функциями потерь и моделями, что повышает его полезность в многочисленных задачах машинного обучения.

Применение в реальном мире

Самоуправляемые автомобили

SGD является неотъемлемой частью обучения моделей, которые обнаруживают и классифицируют объекты в окружающей среде, такие как пешеходы и транспортные средства, обеспечивая безопасную навигацию. Узнай, как приложения Vision AI поддерживают безопасность дорожного движения в автономных автомобилях.

Диагностика в здравоохранении

В медицинской визуализации SGD помогает разрабатывать модели, способные классифицировать изображения для помощи в диагностике, например, для выявления опухолей на МРТ-сканах. Открой для себя разнообразные сферы применения Vision AI в здравоохранении.

Понятия, связанные с данным

Градиентный спуск

Хотя градиентный спуск является традиционным подходом, он менее эффективен, чем SGD, при работе с большими наборами данных из-за необходимости вычислять градиент по всему набору данных на каждой итерации.

Адам Оптимизатор

Оптимизатор Адама опирается на SGD, используя адаптивные темпы обучения, что делает его продвинутым и часто предпочтительным выбором для сложных моделей.

Преимущества и проблемы

SGD допускает быстрые итерации и часто приводит к более быстрой начальной сходимости, что выгодно для практиков глубокого обучения, которым нужна обратная связь в реальном времени, как при обучении моделей Ultralytics YOLO . Однако случайность может привести к шумным обновлениям; такие техники, как графики скорости обучения и импульс, могут смягчить эти проблемы.

Заключение

Стохастический градиентный спуск остается краеугольным камнем в обучении моделей ИИ благодаря своей простоте и эффективности. Его применение охватывает различные отрасли и области исследований, что делает его незаменимым инструментом для практиков, стремящихся использовать мощь машинного обучения и технологий ИИ. Чтобы узнать больше об искусственном интеллекте и его влиянии, посети Ultralytics чтобы узнать, как эти технологии преображают жизнь.

Читать полностью