Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Prompt Tuning

Esplora la regolazione dei prompt per adattare in modo efficiente i modelli di base senza doverli riqualificare completamente. Scopri come i prompt soft riducono la latenza e lo spazio di archiviazione per attività di IA come YOLO26.

Il prompt tuning è una tecnica efficiente in termini di risorse utilizzata per adattare modelli di base pre-addestrati a compiti specifici a valle senza il costo computazionale di riaddestrare l'intera rete. A differenza della tradizionale messa a punto, che aggiorna tutti o quasi tutti i parametri di un modello, la messa a punto dei prompt congela i pesi del modello pre-addestrato e ottimizza solo un piccolo insieme di vettori apprendibili, chiamati "soft prompt", che vengono anteposti ai dati di input. Questo approccio consente a un'unica backbone massiccia di servire più applicazioni specializzate contemporaneamente, riducendo significativamente i requisiti di archiviazione e i costi di commutazione della latenza di inferenza.

I meccanismi della regolazione rapida

Nei flussi di lavoro standard di apprendimento automatico (ML), gli input come testo o immagini vengono convertiti in rappresentazioni numeriche note come embedding. La regolazione dei prompt inserisce ulteriori vettori di embedding addestrabili in questa sequenza di input. Durante la fase di addestramento, il sistema utilizza la retropropagazione per calcolare i gradienti, ma l' algoritmo di ottimizzazione aggiorna solo i valori dei prompt soft, lasciando intatta la massiccia struttura del modello.

Questo metodo è una forma di Parameter-Efficient Fine-Tuning (PEFT). Imparando questi vettori continui, il modello viene "indirizzato" verso l'output desiderato. Sebbene questo concetto abbia avuto origine nell'ambito dell' elaborazione del linguaggio naturale (NLP), è stato adattato con successo alle attività di visione artificiale (CV), spesso denominate Visual Prompt Tuning (VPT).

Distinguere i concetti correlati

Per comprendere l'utilità della regolazione rapida, è essenziale differenziarla da termini simili nel panorama dell'intelligenza artificiale :

  • Prompt Engineering: questo comporta la creazione manuale di istruzioni testuali leggibili dall'uomo (prompt hard) per guidare un modello di IA generativa. Non richiede alcuna codifica o formazione. La regolazione dei prompt, al contrario, utilizza l'apprendimento automatico supervisionato per trovare incorporamenti numerici ottimali che potrebbero non corrispondere alle parole del linguaggio naturale.
  • Ottimizzazione completa: i metodi tradizionali aggiornano l'intera rete neurale, il che spesso porta a una "dimenticanza catastrofica" dell'addestramento originale. L'ottimizzazione rapida preserva le capacità originali del modello, rendendo più facile sfruttare il transfer learning tra compiti disgiunti.
  • Apprendimento con pochi esempi: questo di solito si riferisce alla fornitura di alcuni esempi nella finestra contestuale di un LLM. La regolazione dei prompt è diversa perché apprendono in modo permanente i parametri che vengono salvati e riutilizzati, piuttosto che fornire solo un contesto temporaneo.

Applicazioni nel mondo reale

La messa a punto rapida consente l'implementazione scalabile dell'IA in ambienti con risorse limitate, una filosofia fondamentale condivisa dalla Ultralytics per la gestione dei modelli.

  1. Assistenza clienti multilingue: un'azienda globale può utilizzare un unico modello linguistico centrale e fisso. Grazie all' addestramento di prompt software leggeri per spagnolo, giapponese e tedesco, il sistema è in grado di passare istantaneamente da una lingua all'altra. Ciò consente di evitare i costi elevati legati all'hosting di tre modelli separati di dimensioni pari a gigabyte, affidandosi invece a file di prompt di dimensioni pari a kilobyte .
  2. AI nel settore sanitario: l'imaging medico spesso soffre di scarsità di dati. I ricercatori possono utilizzare una struttura di visione generica (come un Vision Transformer) e ricorrere alla regolazione rapida per adattarla al rilevamento di anomalie specifiche, come malattie della retina o tumori. Ciò garantisce la privacy dei dati dei pazienti e consente un rapido adattamento alle nuove apparecchiature mediche senza dover ricorrere a un completo riaddestramento del modello.

Esempio di implementazione

Il seguente PyTorch dimostra il concetto meccanico di base : congelare i livelli principali di un modello e creare un parametro separato e addestrabile (il "soft prompt") ottimizzato per influenzare l'output.

import torch
import torch.nn as nn

# 1. Define a dummy backbone (e.g., a pre-trained layer)
backbone = nn.Linear(10, 5)

# 2. Freeze the backbone weights (crucial for prompt tuning)
for param in backbone.parameters():
    param.requires_grad = False

# 3. Create a 'soft prompt' vector that IS trainable
# This represents the learnable embeddings prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 10), requires_grad=True)

# 4. Initialize an optimizer that targets ONLY the soft prompt
optimizer = torch.optim.SGD([soft_prompt], lr=0.1)

# Verify that only the prompt is being trained
trainable_params = sum(p.numel() for p in [soft_prompt] if p.requires_grad)
print(f"Optimizing {trainable_params} parameters (Soft Prompt only)")

Rilevanza per l'Edge AI moderna

Man mano che i modelli diventano più grandi, la capacità di adattarli in modo economico diventa fondamentale. Sebbene architetture come YOLO26 siano già altamente ottimizzate in termini di efficienza, i principi del congelamento delle backbone e dell'adattamento efficiente sono fondamentali per il futuro dell' Edge AI. Tecniche simili alla regolazione rapida consentono ai dispositivi con memoria limitata di eseguire diverse attività, dal rilevamento di oggetti alla segmentazione, semplicemente scambiando piccoli file di configurazione invece di ricaricare enormi reti neurali.

Per gli sviluppatori che desiderano formarsi e implementare in modo efficiente, l'utilizzo di strumenti come la Ultralytics garantisce che i modelli siano ottimizzati per i loro specifici obiettivi hardware, sfruttando le migliori pratiche del moderno MLOps.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora