Глоссарий

Параметрически эффективная точная настройка (PEFT)

Открой для себя Parameter-Efficient Fine-Tuning (PEFT): эффективно адаптируй большие модели ИИ с минимальными ресурсами. Оптимизируй задачи в NLP, зрении и многом другом!

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Parameter-Efficient Fine-Tuning (PEFT) - это подход к машинному обучению, предназначенный для адаптации больших предварительно обученных моделей к новым задачам с минимальными вычислительными затратами. Благодаря тонкой настройке только небольшого подмножества параметров, методы PEFT делают процесс тонкой настройки более эффективным, снижая требования к ресурсам и сохраняя общие знания, закодированные в предварительно обученной модели.

Важность PEFT

Традиционная тонкая настройка предполагает обновление всех параметров модели, что может быть вычислительно дорого и требовать много памяти, особенно для больших моделей, таких как архитектуры на основе трансформаторов. PEFT решает эту проблему, изменяя лишь часть параметров, сохраняя большую часть предварительно обученной модели неизменной. Такой подход особенно выгоден, когда вычислительные ресурсы ограничены или когда приходится иметь дело с несколькими задачами, требующими настройки без необходимости каждый раз заново обучать всю модель.

Методы PEFT соответствуют растущему спросу на ресурсосберегающие решения в области ИИ, позволяя практически применять большие модели в различных отраслях, таких как здравоохранение, сельское хозяйство и розничная торговля.

Основные техники в PEFT

Было разработано несколько подходов для эффективной тонкой настройки параметров:

  • Низкоранговая адаптация (LoRA): LoRA вводит в модель специфические для конкретной задачи обновления низких рангов, оптимизируя только эти дополнительные параметры для адаптации к новым задачам.
  • Адаптивные слои: Это небольшие модули нейронной сети, вставляемые в архитектуру модели, обычно между слоями, для обучения специфическим для конкретной задачи настройкам.
  • Настройка подсказок: Этот метод предполагает настройку только входных подсказок, подаваемых в модель, оставляя параметры модели неизменными. Узнай больше о настройке подсказок.
  • Префиксный тюнинг: Подобно настройке подсказок, префиксная настройка оптимизирует последовательность специфических для задачи параметров, которые выступают в качестве префикса к входным данным.

Каждый метод направлен на сокращение времени обучения и расхода ресурсов при сохранении высокой производительности на последующих задачах.

Применение ПЭФТ

PEFT нашел применение в самых разных областях ИИ и машинного обучения, особенно там, где ключевыми факторами являются ограниченность ресурсов или разнообразие задач.

Пример 1: Обработка естественного языка (NLP)

В NLP методы PEFT широко используются для адаптации больших языковых моделей вроде GPT-3 или GPT-4 к конкретным задачам, таким как анализ настроения, обобщение или ответы на вопросы в конкретном домене. Например, LoRA можно применить для тонкой настройки GPT-3 для анализа медицинских текстов, что позволяет получать точные предсказания при минимальных вычислительных потребностях.

Пример 2: искусственный интеллект зрения

В компьютерном зрении PEFT используется для тонкой настройки предварительно обученных моделей, таких как Ultralytics YOLO для конкретных задач, таких как обнаружение редких объектов в специализированных наборах данных. Тонко настраивая лишь небольшую часть весов модели, организации могут быстро развернуть специализированные решения для таких задач, как мониторинг дикой природы или контроль качества в промышленности, без длительного переобучения.

Преимущества PEFT

  1. Эффективность использования ресурсов: Снижает требования к вычислительным ресурсам и памяти, что делает его доступным для развертывания на граничных устройствах или в средах с ограниченными ресурсами.
  2. Гибкость задач: Способствует быстрой адаптации к решению множества задач без переобучения всей модели, что особенно полезно для таких отраслей, как здравоохранение и производство.
  3. Экономическая эффективность: Снижает затраты на тонкую настройку больших моделей, концентрируясь на небольшом подмножестве параметров.
  4. Сохранение общих знаний: Сохраняет возможности общего назначения предварительно обученной модели, добавляя при этом знания, специфичные для конкретной задачи.

Отличия от традиционного файн-тюнинга

При традиционной тонкой настройке обновляется вся модель, что может быть вычислительно дорого и чревато чрезмерной подгонкой, особенно при небольших наборах данных. PEFT, с другой стороны, фокусируется на оптимизации минимального количества параметров, достигая сопоставимых результатов при значительно меньших вычислительных затратах.

PEFT также отличается от трансферного обучения, в котором предварительно обученная модель адаптируется к новой задаче путем переобучения некоторых или всех слоев. В то время как трансферное обучение может включать в себя полное переобучение модели, PEFT явно разработан так, чтобы минимизировать обновление параметров.

Воздействие на реальный мир

Внедрение PEFT позволило распространить решения в области ИИ в условиях ограниченных ресурсов. Например, в сельском хозяйстве PEFT позволяет настраивать модели зрения для точного обнаружения болезней сельскохозяйственных культур, работая при этом на маломощных устройствах. Аналогично, в здравоохранении PEFT облегчает адаптацию моделей для таких задач, как обнаружение опухолей, используя специализированные наборы данных, как показано в решенияхUltralytics для здравоохранения.

PEFT также интегрирован в такие инструменты, как Ultralytics HUB, что упрощает обучение и развертывание пользовательских моделей, обеспечивая пользователям эффективную адаптацию предварительно обученных моделей к их уникальным потребностям.

Заключение

Parameter-Efficient Fine-Tuning (PEFT) - это значительный шаг вперед в деле повышения доступности и адаптивности ИИ. Обеспечивая эффективную адаптацию больших моделей к новым задачам, PEFT позволяет отраслям использовать весь потенциал ИИ, снижая при этом затраты и вычислительные требования. Имея применение в NLP, компьютерном зрении и других областях, PEFT продолжает играть ключевую роль в развитии технологий ИИ.

Читать полностью