Glossario

Ingegneria tempestiva

Impara l'arte dell'ingegneria dei tempi per guidare i modelli di intelligenza artificiale come gli LLM per ottenere risultati precisi e di alta qualità nei contenuti, nel servizio clienti e altro ancora.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

L'ingegneria dei prompt è la pratica di progettare, perfezionare e strutturare gli input (prompt) forniti ai modelli di Intelligenza Artificiale (IA), in particolare i Large Language Models (LLM) e altri sistemi di IA generativa, per ottenere i risultati desiderati o ottimali. Non si tratta tanto di modificare il modello in sé, quanto di comunicare efficacemente con il modello utilizzando istruzioni, domande o esempi in linguaggio naturale accuratamente realizzati. Man mano che i modelli come il GPT-4 diventano più capaci, la qualità della richiesta influenza in modo significativo la qualità, la pertinenza e l'utilità della risposta generata.

Il ruolo dei suggerimenti

Un prompt è un'istruzione o una domanda che guida il comportamento del modello AI. Una progettazione efficace dei prompt implica la comprensione del modo in cui il modello interpreta il linguaggio e la sperimentazione iterativa di diverse frasi, contesti e vincoli. Questo processo richiede spesso chiarezza, specificità e la fornitura di un contesto o di esempi sufficienti all'interno del messaggio stesso. Le tecniche variano da semplici istruzioni a metodi più complessi come la fornitura di esempi(Few-Shot Learning) o la guida del processo di ragionamento del modello(Chain-of-Thought Prompting). L'obiettivo è quello di colmare il divario tra le intenzioni umane e le capacità di generazione di output del modello, spesso esplorate in campi come l'elaborazione del linguaggio naturale (NLP).

Differenze chiave rispetto ad altre tecniche

Prompt Engineering si differenzia fondamentalmente dalle altre tecniche di ottimizzazione del Machine Learning (ML):

  • Messa a punto: Il fine-tuning consiste nell'addestrare ulteriormente un modello pre-addestrato su un set di dati specifico per adattare i pesi interni del modello a un compito specifico. L'ingegnerizzazione, al contrario, lavora con il modello esistente senza riqualificarlo, concentrandosi esclusivamente sull'elaborazione dell'input.
  • Regolazione degli iperparametri: Si tratta di ottimizzare i parametri che controllano il processo di apprendimento stesso (come il tasso di apprendimento o la dimensione del batch) durante la formazione del modello. L'ingegnerizzazione avviene durante l'inferenza, ottimizzando l'input al modello già addestrato. Per maggiori dettagli su questo processo, puoi consultare le guide alla regolazione degli iperparametri.
  • Ingegneria delle caratteristiche: Tipicamente utilizzata nel ML tradizionale, consiste nel selezionare, trasformare o creare caratteristiche dai dati grezzi per migliorare le prestazioni del modello. L'ingegneria dei prompt si occupa di creare input in linguaggio naturale per i modelli generativi, non di manipolare le caratteristiche dei dati tabellari.

Applicazioni del mondo reale

L'ingegnerizzazione tempestiva è fondamentale per le varie applicazioni di IA:

  1. Creazione di contenuti: I marketer utilizzano l'ingegneria dei prompt per generare specifici tipi di testo creativo, come le bozze dei post del blog, le varianti dei testi pubblicitari o le didascalie dei social media, specificando il tono, lo stile, il pubblico di riferimento e le parole chiave. Ad esempio, se si chiede a un modello "Scrivi tre titoli accattivanti per una campagna di marketing via e-mail rivolta ai proprietari di piccole imprese sulla gestione dell'inventario basata sull'intelligenza artificiale" si ottengono risultati più mirati rispetto a un generico "Scrivi titoli di e-mail". In questo modo si sfruttano le capacità di generazione di testo degli LLM.
  2. Chatbot di assistenza clienti: Gli sviluppatori progettano i prompt per definire il personaggio di un chatbot (ad esempio, amichevole, formale), l'ambito di conoscenza e i flussi di lavoro specifici per la gestione delle domande degli utenti. Un messaggio potrebbe indicare al bot "Sei un utile agente di supporto per Ultralytics. Rispondi gentilmente alle domande degli utenti sulle licenze del software Ultralytics YOLO . Se ti chiedono informazioni sui prezzi, indirizzali alla pagina dei prezzi". Questo garantisce interazioni coerenti e utili, utilizzando potenzialmente tecniche come la Retrieval-Augmented Generation (RAG) per accedere a informazioni specifiche. Per saperne di più su come funzionano i LLM, puoi capire la tecnologia sottostante.

Importanza e futuro

Man mano che i modelli di intelligenza artificiale vengono integrati in sistemi sempre più complessi, dalla generazione di codici alla ricerca scientifica, la capacità di guidarli in modo efficace attraverso l'ingegnerizzazione immediata diventa sempre più vitale. Ciò richiede un mix di competenze linguistiche, conoscenza del dominio e comprensione delle capacità e dei limiti del modello di IA. Framework come LangChain e risorse come la documentazione dell'API OpenAI forniscono strumenti e best practice per questo campo in evoluzione. Garantire un uso responsabile significa anche considerare l'etica dell'IA e mitigare i potenziali pregiudizi dell'IA attraverso un'attenta progettazione. L'esplorazione di Ultralytics HUB può fornire spunti per la gestione di modelli e progetti di IA in cui potrebbero sorgere considerazioni sui prompt. Ulteriori ricerche continuano a esplorare strategie di prompt più avanzate, tra cui l'ottimizzazione automatica dei prompt e la comprensione delle sfumature dell'interazione uomo-IA.

Leggi tutto