Изучите быструю настройку для эффективной адаптации базовых моделей без полного переобучения. Узнайте, как мягкие подсказки сокращают задержку и объем хранилища для задач ИИ, таких как YOLO26.
Быстрая настройка — это ресурсоэффективная техника, используемая для адаптации предварительно обученных базовых моделей к конкретным задачам без затрат на переобучение всей сети. В отличие от традиционной точной настройки, при которой обновляются все или большинство параметров модели, быстрая настройка замораживает предварительно обученные веса модели и оптимизирует только небольшой набор обучаемых векторов, называемых «мягкими подсказками», которые добавляются к входным данным. Этот подход позволяет одной массивной базовой модели одновременно обслуживать несколько специализированных приложений, что значительно снижает требования к хранению и затраты на переключение задержки вывода.
В стандартных рабочих процессах машинного обучения (ML) входные данные, такие как текст или изображения, преобразуются в числовые представления, известные как вложения. Настройка подсказок вставляет дополнительные обучаемые векторы вложения в эту последовательность входных данных. На этапе обучения система использует обратное распространение для вычисления градиентов, но алгоритм оптимизации обновляет только значения мягких подсказок, оставляя массивную структуру модели неизменной.
Этот метод является формой эффективной настройки параметров (PEFT). Путем обучения этим непрерывным векторам модель «направляется» к желаемому результату. Хотя эта концепция возникла в области обработки естественного языка (NLP), она была успешно адаптирована для задач компьютерного зрения (CV) и часто называется визуальной настройкой подсказок (VPT).
Чтобы понять полезность быстрой настройки, необходимо отличать ее от схожих терминов в сфере искусственного интеллекта :
Быстрая настройка позволяет масштабируемо развертывать ИИ в средах с ограниченными ресурсами, что является основополагающей философией Ultralytics для управления моделями.
Следующее PyTorch демонстрирует основную механическую концепцию: замораживание основных слоев модели и создание отдельного обучаемого параметра («мягкий промпт»), который оптимизирован для влияния на вывод.
import torch
import torch.nn as nn
# 1. Define a dummy backbone (e.g., a pre-trained layer)
backbone = nn.Linear(10, 5)
# 2. Freeze the backbone weights (crucial for prompt tuning)
for param in backbone.parameters():
param.requires_grad = False
# 3. Create a 'soft prompt' vector that IS trainable
# This represents the learnable embeddings prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 10), requires_grad=True)
# 4. Initialize an optimizer that targets ONLY the soft prompt
optimizer = torch.optim.SGD([soft_prompt], lr=0.1)
# Verify that only the prompt is being trained
trainable_params = sum(p.numel() for p in [soft_prompt] if p.requires_grad)
print(f"Optimizing {trainable_params} parameters (Soft Prompt only)")
По мере увеличения размера моделей возможность их недорогой адаптации становится критически важной. Хотя архитектуры, такие как YOLO26, уже в значительной степени оптимизированы с точки зрения эффективности, принципы замораживания базовых структур и эффективной адаптации имеют фундаментальное значение для будущего Edge AI. Техники, аналогичные быстрой настройке, позволяют устройствам с ограниченным объемом памяти выполнять различные задачи — от обнаружения объектов до сегментации — путем простой замены небольших файлов конфигурации вместо перезагрузки огромных нейронных сетей.
Для разработчиков, стремящихся к эффективному обучению и развертыванию, использование таких инструментов, как Ultralytics , гарантирует оптимизацию моделей для их конкретных аппаратных целей с использованием передовых методов современного MLOps.