Узнайте, как алгоритмы оптимизации, такие как SGD AdamW обучение машинного обучения. Научитесь минимизировать потери и улучшать производительность Ultralytics для приложений искусственного интеллекта.
Алгоритм оптимизации служит основным вычислительным механизмом, который управляет процессом обучения моделей машинного обучения (ML) и глубокого обучения (DL). Его основная задача заключается в итеративной настройке внутренних весов и смещений модели для минимизации ошибки между прогнозируемыми результатами и фактическими целями. Этот процесс можно представить как путешественника, пытающегося спуститься с затуманенной горы, чтобы достичь самой низкой точки в долине. Алгоритм оптимизации действует как проводник, определяя направление и размер шага, который путешественник должен сделать, чтобы достичь дна, что соответствует состоянию, при котором функция потерь минимизирована, а точность прогнозирования модели максимизирована.
Обучение нейронной сети включает в себя повторяющийся цикл прогнозирования, расчета ошибок и обновления параметров. Алгоритм оптимизации контролирует фазу «обновления» этого цикла. После обработки партии обучающих данных система рассчитывает градиент — вектор, указывающий направление наиболее резкого увеличения ошибки — с помощью метода, называемого обратной пропагацией.
Затем оптимизатор обновляет параметры модели в направлении, противоположном градиенту, чтобы уменьшить ошибку. Величина этого обновления регулируется важным гиперпараметром, известным как скорость обучения. Если шаг слишком велик, модель может проскочить глобальный минимум; если он слишком мал, обучение может стать чрезмерно медленным или застрять в локальном минимуме. Дополнительные ресурсы, такие как конспекты по оптимизации из курса CS231n Стэнфордского университета, предлагают более глубокое техническое понимание этой динамики.
Различные проблемы требуют различных стратегий. Несмотря на множество вариаций, несколько ключевых алгоритмов доминируют в современном развитии ИИ:
Алгоритмы оптимизации работают незаметно за кулисами практически каждого успешного решения искусственного интеллекта, преобразуя данные в полезную информацию.
Важно отличать алгоритм оптимизации от других компонентов процесса обучения, чтобы эффективно понимать рабочий процесс.
В современных фреймворках выбор алгоритма оптимизации часто осуществляется с помощью одного аргумента. Следующий пример
демонстрирует, как обучить YOLO26 модель с использованием
AdamW оптимизатор в рамках ultralytics пакета. Пользователи также могут использовать
Платформа Ultralytics для подхода без использования кода к управлению этими учебными
сессиями.
from ultralytics import YOLO
# Load the latest YOLO26 model (recommended for new projects)
model = YOLO("yolo26n.pt")
# Train the model using the 'AdamW' optimization algorithm
# The optimizer iteratively updates weights to minimize loss on the dataset
results = model.train(data="coco8.yaml", epochs=5, optimizer="AdamW")
Для тех, кто интересуется механикой низкого уровня, такие фреймворки, как PyTorch и TensorFlow Optimizers, предлагают обширную документацию по внедрению и настройке этих алгоритмов для пользовательских исследовательских архитектур.