Глоссарий

Алгоритм оптимизации

Узнай, как алгоритмы оптимизации повышают производительность AI и ML, начиная с обучения нейронных сетей и заканчивая реальными приложениями в здравоохранении и сельском хозяйстве.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

В сфере искусственного интеллекта (ИИ) и машинного обучения (МЛ) алгоритмы оптимизации являются важнейшими методами, используемыми для уточнения моделей и повышения их производительности. Эти алгоритмы итеративно настраивают параметры (например, weights and biases) модели, чтобы минимизировать заранее заданную функцию потерь, которая измеряет разницу между предсказаниями модели и реальными целевыми значениями. Этот процесс является основополагающим для обучения сложных моделей, таких как нейронные сети, позволяя им эффективно обучаться на данных и повышать свою точность и надежность при решении самых разных задач - от распознавания образов до обработки естественного языка (NLP). Думай об этом, как о тонкой настройке инструмента для получения наиболее чистого звука; алгоритмы оптимизации настраивают модель для получения наиболее точных предсказаний.

Актуальность в области искусственного интеллекта и машинного обучения

Алгоритмы оптимизации - это двигатели, которые приводят в движение процесс обучения в большинстве ML-моделей, особенно в глубоком обучении (DL). Такие модели, как конволюционные нейронные сети (CNN) и рекуррентные нейронные сети (RNN), в значительной степени полагаются на эти алгоритмы для навигации по обширным пространствам параметров и поиска конфигураций, которые дают хорошую производительность. Без эффективной оптимизации моделям будет сложно сходиться к оптимальным решениям, что приведет к плохим предсказаниям и увеличению времени обучения. Например, Ultralytics YOLO модели используют сложные алгоритмы оптимизации во время обучения для достижения высокой точности обнаружения объектов в реальном времени. Эти алгоритмы также важны для обучения таких передовых моделей, как GPT-4 и другие большие языковые модели (LLM), что обеспечивает их впечатляющие возможности. Выбор оптимизатора может существенно повлиять на скорость обучения и конечную производительность модели, о чем мы рассказываем в руководствах, посвященных советам по обучению моделей. Эффективное изучение ландшафта потерь - ключ к успешному обучению модели.

Ключевые концепции и алгоритмы

В машинном обучении широко используется несколько алгоритмов оптимизации, каждый из которых предлагает различные стратегии для навигации по ландшафту потерь и обновления параметров модели. Некоторые распространенные примеры включают:

  • Градиентный спуск: Основополагающий алгоритм, который итеративно перемещает параметры в направлении, противоположном градиенту функции потерь. Это как осторожно идти вниз по склону, чтобы найти самую низкую точку. Существуют различные варианты, позволяющие улучшить производительность.
  • Стохастический градиентный спуск (SGD): Разновидность градиентного спуска, которая обновляет параметры, используя только один или несколько обучающих примеров (мини-партия) за раз, что делает обновление быстрее и потенциально позволяет избежать локальных минимумов.
  • Адам Оптимизатор: Алгоритм оптимизации скорости адаптивного обучения, который вычисляет индивидуальные адаптивные скорости обучения для разных параметров из оценок первого и второго моментов градиентов. Он известен своей эффективностью и широко используется в глубоком обучении. Читай оригинальную статью об Адаме, чтобы узнать технические подробности.
  • RMSprop: Еще один метод адаптивной скорости обучения, который делит скорость обучения для веса на бегущее среднее значение величин последних градиентов для этого веса.

Эти оптимизаторы часто являются настраиваемыми параметрами в таких ML-фреймворках, как PyTorch и TensorFlowи платформ, таких как Ultralytics HUB, что позволяет пользователям выбирать оптимальный вариант для конкретной задачи и набора данных. Выбор правильного оптимизатора имеет решающее значение для эффективного обучения модели.

Применение в реальном мире

Алгоритмы оптимизации являются основополагающими для успеха AI/ML в различных областях:

  1. Здравоохранение: В анализе медицинских изображений алгоритмы оптимизации обучают модели для обнаружения аномалий вроде опухолей или классификации типов тканей. Например, при использовании YOLO11 для обнаружения опухолей алгоритмы оптимизации настраивают параметры модели на основе аннотированных медицинских сканов(наборов данных), чтобы точно определить раковые области, помогая радиологам в диагностике. Ознакомься с другими решениями в области искусственного интеллекта в здравоохранении.
  2. Автономные транспортные средства: Алгоритмы оптимизации необходимы для обучения систем восприятия автономных транспортных средств. Они совершенствуют модели, используемые для обнаружения пешеходов, других транспортных средств, светофоров и дорожных полос по данным датчиков (например, камер и LiDAR). Алгоритмы вроде Adam помогают модели быстро научиться идентифицировать объекты с высокой точностью, что крайне важно для обеспечения безопасности и навигации в сложных условиях. Узнай о решениях в области искусственного интеллекта в автомобилестроении.
  3. Финансы: Обучение моделей для обнаружения мошенничества или прогнозирования фондового рынка в значительной степени опирается на оптимизацию, чтобы минимизировать ошибки прогнозирования на основе исторических данных.
  4. Электронная коммерция: Рекомендательные системы используют оптимизацию для точной настройки алгоритмов, которые предсказывают предпочтения пользователей и предлагают соответствующие товары, максимизируя вовлеченность и продажи.

Алгоритмы оптимизации против смежных концепций

Важно отличать алгоритмы оптимизации от родственных концепций ML:

  • Алгоритм оптимизации против настройки гиперпараметров: Алгоритмы оптимизации (например Адам или SGD) отрегулируй внутренние параметры weights and biases) модели во время процесс тренировки, чтобы свести к минимуму функция потерь. С другой стороны, настройка гиперпараметров направлена на поиск оптимального внешние настройки конфигурации (гиперпараметры типа скорость обучения, размер партииили даже выбор самого алгоритма оптимизации) до начинается обучение. Такие инструменты, как Ultralytics Tuner класс автоматизируй настройку гиперпараметров с помощью таких методов, как эволюционные алгоритмы. Читать Руководство по настройке гиперпараметров для более подробной информации.
  • Алгоритм оптимизации против функции потерь: Функция потерь определяет, насколько хорошо работает модель, измеряя ошибку между предсказаниями и фактическими значениями. Алгоритм оптимизации - это механизм, используемый для итеративной настройки параметров модели с целью минимизации этой количественной ошибки. В зависимости от задачи могут быть выбраны различные функции потерь (например, кросс-энтропия для классификации, средняя квадратичная ошибка для регрессии).
  • Алгоритм оптимизации против архитектуры модели: Архитектура модели определяет структуру нейронной сети, включая количество и тип слоев (например, конволюционные слои, слои с отсевом), а также способ их соединения. Алгоритм оптимизации работает в рамках этой заданной архитектуры для обучения обучаемых параметровweights and biases), связанных с этими слоями. Проектирование архитектуры и выбор оптимизатора - важнейшие шаги в построении эффективной ML-модели. Поиск нейронной архитектуры (NAS) - это смежная область, которая автоматизирует проектирование архитектуры.
Читать полностью