Scopri come il prompt chaining suddivide complesse attività di IA in flussi di lavoro affidabili. Scopri come integrare Ultralytics con gli LLM per creare agenti di IA avanzati.
Il concatenamento dei prompt è un modello architettonico avanzato nello sviluppo dell'intelligenza artificiale (AI) in cui un'attività complessa viene scomposta in una sequenza di sottoattività più piccole e gestibili. In questo flusso di lavoro, l'output di un passaggio, spesso generato da un modello linguistico di grandi dimensioni (LLM) o da un sistema di visione artificiale , funge da input per il passaggio successivo. A differenza di un singolo prompt monolitico che tenta di risolvere un problema multiforme tutto in una volta, il concatenamento consente agli sviluppatori di creare applicazioni più affidabili, testabili e capaci . Questo approccio modulare è essenziale per creare sofisticati agenti AI in grado di ragionare, navigare sul web o interagire con ambienti fisici.
Fondamentalmente, il concatenamento rapido affronta i limiti delle finestre di contesto e delle capacità di ragionamento nei modelli di base. Quando a un modello viene chiesto di eseguire troppe operazioni distinte in una singola richiesta (ad esempio, "Analizza questa immagine, estrai il testo, traducilo in spagnolo e formattalo come una fattura JSON"), la probabilità di errore aumenta. Dividendo questo in una pipeline, gli sviluppatori possono verificare l'accuratezza di ogni fase.
Le catene efficaci spesso utilizzano "codice collante" scritto in Python o gestito da librerie di orchestrazione come LangChain per gestire la trasformazione dei dati tra le varie fasi. Ciò consente l'integrazione di tecnologie disparate, come la combinazione dell'acuità visiva del rilevamento degli oggetti con la fluidità linguistica dei modelli di testo generativi.
Il concatenamento rapido è particolarmente potente quando colma il divario tra diverse modalità di dati, consentendo ai modelli multimodali di funzionare in contesti industriali e commerciali dinamici .
L'esempio seguente illustra il primo "anello" di una catena: l'utilizzo della visione artificiale (CV) per generare dati strutturati che fungono da contesto per un prompt a valle.
from ultralytics import YOLO
# Load the YOLO26 model (natively end-to-end and highly efficient)
model = YOLO("yolo26n.pt")
# Step 1: Run inference to 'see' the environment
results = model("https://ultralytics.com/images/bus.jpg")
# Step 2: Format visual detections into a natural language string
det_names = [model.names[int(c)] for c in results[0].boxes.cls]
prompt_context = f"The scene contains: {', '.join(det_names)}. Please describe the likely activity."
# The 'prompt_context' variable is now ready to be sent to an LLM API
print(prompt_context)
Per implementare architetture di Machine Learning (ML) efficaci, è utile distinguere il prompt chaining da termini simili nel panorama dell'intelligenza artificiale:
Sfruttando il prompt chaining, i team possono creare applicazioni robuste che integrano logica, recupero dati e riconoscimento delle azioni. Per la gestione dei set di dati e l'addestramento dei modelli di visione che alimentano queste catene, Ultralytics offre una soluzione centralizzata per l'annotazione, l' addestramento e l'implementazione.