Глоссарий

LoRA (Low-Rank Adaptation)

Узнай, как LoRA эффективно настраивает большие модели ИИ, например YOLO , снижая затраты и позволяя развертывать граничные системы с минимальными ресурсами.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

LoRA (Low-Rank Adaptation) - это эффективная техника, используемая для адаптации больших предварительно обученных моделей машинного обучения (ML), например, используемых для обработки естественного языка (NLP) или компьютерного зрения (CV), к конкретным задачам или наборам данных без переобучения всей модели. Это значительно снижает вычислительные затраты и требования к памяти, связанные с тонкой настройкой массивных моделей, делая продвинутый ИИ более доступным. LoRA относится к группе методов Parameter-Efficient Fine-Tuning (PEFT).

Как работает LoRA

Традиционная тонкая настройка подразумевает обновление всех параметров (или весов модели) предварительно обученной модели на основе новых данных. Для моделей с миллиардами параметров этот процесс требует значительных вычислительных ресурсов, особенно GPU памяти и времени. LoRA работает по принципу, что изменения, необходимые для адаптации модели, часто находятся в более низкоразмерном пространстве.

Вместо того чтобы изменять все исходные веса, LoRA замораживает их и вводит меньшие, поддающиеся обучению матрицы "низкого ранга" в определенные слои архитектуры модели, часто в блоки трансформатора. В процессе тонкой настройки обновляются только эти вновь добавленные матрицы (адаптеры). Это значительно сокращает количество обучаемых параметров, часто на порядки, но при этом во многих случаях достигается производительность, сопоставимая с полной тонкой настройкой. В оригинальной научной статье LoRA приведены дальнейшие технические подробности методики.

Актуальность и преимущества

Главное преимущество LoRA - это его эффективность:

  • Снижение вычислительных затрат: Обучение требует значительно меньше памяти и времени GPU по сравнению с полной тонкой настройкой.
  • Меньше места для хранения: Вместо того чтобы сохранять полную точно настроенную модель для каждой задачи, нужно хранить только небольшие веса адаптеров LoRA. Это очень выгодно при управлении несколькими пользовательскими моделями.
  • Более быстрое переключение задач: адаптация базовой модели к разным задачам может быть выполнена быстро, просто поменяв местами соответствующие веса адаптера LoRA.
  • Доступность: Обеспечивает тонкую настройку больших моделей на аппаратном обеспечении потребительского класса или в средах с ограниченными ресурсами, например на пограничных вычислительных устройствах.
  • Сравнимая производительность: Часто достигаются уровни точности, близкие к тем, которые получаются при полной тонкой настройке модели.

Применение LoRA

Эффективность LoRA делает его ценным в различных сферах:

  • Настройка больших языковых моделей (LLM): Адаптация основополагающих LLM, таких как GPT-4 или альтернативные варианты с открытым исходным кодом, для решения специализированных задач, таких как генерация текста в определенном стиле, создание чат-ботов, ориентированных на конкретную область, или повышение производительности на нишевых наборах данных вопросов-ответов. Например, компания может использовать LoRA для тонкой настройки общего чат-бота для обслуживания клиентов, чтобы он понимал отраслевой жаргон и давал более релевантные ответы без переобучения всего базового LLM. Библиотека PEFT отHugging Face предлагает инструменты для реализации LoRA и других подобных техник.
  • Адаптация моделей зрения: Эффективная тонкая настройка больших моделей компьютерного зрения, включая Ultralytics YOLO для решения конкретных задач по обнаружению объектов или сегментации изображений. Например, адаптация модели, предварительно обученной на широком наборе данных, таком как COCO, для точного обнаружения уникальных дефектов в процессе контроля качества производства или идентификации конкретных видов животных в рамках усилий по сохранению дикой природы с помощью изображений с камер-ловушек.
  • Персонализированный ИИ: создание персонализированного пользовательского опыта путем адаптации моделей к индивидуальным предпочтениям или данным с минимальными накладными расходами.
  • Анализ медицинских изображений: Тонкая настройка моделей для специализированных диагностических задач на основе медицинских снимков, адаптация к конкретным модальностям визуализации или контингенту пациентов. Платформы вроде Ultralytics HUB помогут управлять моделями, адаптированными с помощью таких техник, как LoRA, для различных сценариев развертывания.
Читать полностью