Глоссарий

Параметрически эффективная точная настройка (PEFT)

Открой для себя Parameter-Efficient Fine-Tuning (PEFT) для адаптации больших моделей ИИ с минимальными ресурсами. Сэкономь расходы, предотврати перебор и оптимизируй развертывание!

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Parameter-Efficient Fine-Tuning (PEFT) - это набор техник в машинном обучении, предназначенных для эффективной адаптации предварительно обученных моделей к конкретным задачам на последующем этапе, при этом тонко настраивая лишь небольшое количество параметров модели. Этот подход особенно актуален в эпоху больших языковых моделей (LLM) и других крупномасштабных моделей ИИ, когда полная тонкая настройка может быть вычислительно дорогой и ресурсоемкой. Методы PEFT значительно снижают затраты на вычисления и хранение данных, что делает возможным настройку этих массивных моделей для более широкого круга приложений и их развертывание в средах с ограниченными ресурсами.

Актуальность и применение

Значимость Parameter-Efficient Fine-Tuning обусловлена его способностью демократизировать доступ к мощным, предварительно обученным моделям. Вместо того чтобы обучать большую модель с нуля или точно настраивать все ее параметры для каждой новой задачи, PEFT позволяет разработчикам и исследователям добиваться сопоставимой производительности, изменяя лишь часть исходных параметров. Такая эффективность имеет несколько ключевых преимуществ и применений:

  • Снижение вычислительных затрат: Традиционная тонкая настройка больших моделей требует значительных вычислительных ресурсов и времени. Методы PEFT значительно снижают эти требования, позволяя быстрее проводить эксперименты и внедрять модели, а также делая ИИ более доступным для людей и организаций с ограниченными ресурсами. Это особенно выгодно при использовании таких платформ, как Ultralytics HUB Cloud Training, где эффективное обучение напрямую ведет к экономии средств и ускорению итерационных циклов.
  • Меньше требований к хранению данных: Тонкая настройка всех параметров большой модели приводит к созданию нескольких полноразмерных копий для каждой задачи. Методы PEFT, изменяя лишь небольшое подмножество параметров, приводят к созданию значительно меньших по размеру моделей с точной настройкой. Это очень важно для развертывания моделей на пограничных устройствах или в сценариях, где объем памяти ограничен.
  • Предотвращение оверфиттинга: При тонкой настройке больших моделей на небольших наборах данных существует риск переподгонки, когда модель учится хорошо работать на обучающих данных, но плохо обобщает их на новые, невидимые данные. Методы PEFT могут действовать как форма регуляризации, поскольку они ограничивают адаптацию модели, потенциально приводя к лучшему обобщению.

Области применения PEFT в реальном мире разнообразны и быстро расширяются. Например, в обработке естественного языка (NLP) PEFT используется для адаптации базовых моделей, таких как GPT-3 или GPT-4, под конкретные задачи, такие как анализ настроения, обобщение текста или ответы на вопросы. В компьютерном зрении PEFT можно применять к предварительно обученным моделям изображений, чтобы специализировать их для таких задач, как анализ медицинских изображений или обнаружение объектов в конкретных областях, например, обнаружение дефектов в производстве или идентификация различных видов в сохранении дикой природы.

Ключевые понятия

PEFT основывается на принципах трансферного обучения и тонкой настройки. Трансферное обучение подразумевает использование знаний, полученных при решении одной задачи, для применения их к другой, но смежной проблеме. Тонкая настройка, в данном контексте, - это процесс взятия предварительно обученной модели и ее дальнейшего обучения на новом наборе данных, специфичном для конкретной задачи.

Однако традиционная тонкая настройка часто предполагает обновление всех или значительной части параметров предварительно обученной модели. PEFT отличается тем, что вводит техники, которые изменяют лишь небольшую часть этих параметров. К распространенным техникам PEFT относятся:

  • Модули-адаптеры: Добавляй небольшие новые слои (адаптеры) к предварительно обученной модели и тренируй только эти слои-адаптеры, сохраняя исходные веса модели замороженными.
  • Тюнинг префиксов: Добавляй на вход модели обучаемые префиксы, которые направляют поведение модели для новой задачи.
  • Низкоранговая адаптация (Low-Rank Adaptation, LoRA): Разложение весовых матриц на матрицы с низким рангом и обучение только этих меньших матриц с низким рангом.

Эти методы отличаются от полной тонкой настройки, при которой обновляются все параметры модели, и обрезки модели, при которой размер модели уменьшается за счет удаления менее важных связей. PEFT фокусируется на эффективной адаптации, а не на уменьшении размера или полном переобучении.

В общем, Parameter-Efficient Fine-Tuning - это важнейшее достижение, позволяющее сделать большие модели ИИ более практичными и доступными. Благодаря значительному снижению накладных расходов на вычисления и хранение данных при сохранении высокой производительности, PEFT позволяет более широкому сообществу использовать мощь современного ИИ для различных и специализированных приложений, включая те, которые достижимы для таких моделей, как Ultralytics YOLO11.

Читать полностью