Glossario

Generazione aumentata di recupero (RAG)

Scoprite come la Retrieval Augmented Generation (RAG) migliora i modelli di IA integrando dati esterni affidabili e in tempo reale per ottenere risposte precise e aggiornate.

Retrieval-Augmented Generation (RAG) è un framework avanzato di intelligenza artificiale progettato per migliorare la qualità, l'accuratezza e la pertinenza delle risposte generate dai Large Language Models (LLM). Funziona collegando un modello generativo a una base di conoscenza esterna e aggiornata. Ciò consente al modello di "recuperare" le informazioni pertinenti prima di generare una risposta, fondando di fatto i suoi risultati su fatti verificabili e riducendo la probabilità di allucinazioni o risposte obsolete. La RAG rende i LLM più affidabili per i compiti ad alta intensità di conoscenza, consentendo loro di accedere a informazioni specializzate o proprietarie su cui non sono stati addestrati.

Come funziona la generazione aumentata del recupero

Il processo RAG può essere suddiviso in due fasi principali: recupero e generazione. Questo approccio a due fasi combina i punti di forza dei sistemi di recupero delle informazioni e dei modelli generativi.

  1. Recupero: Quando un utente fornisce una richiesta o pone una domanda, il sistema RAG utilizza innanzitutto la richiesta per cercare informazioni pertinenti in una fonte di conoscenza. Questa fonte è tipicamente un database vettoriale contenente incorporazioni di documenti, articoli o altri dati. Il componente retriever identifica ed estrae i frammenti di testo o i dati più rilevanti in base alla domanda dell'utente. Un passo opzionale, ma potente, è l'uso di un reranker per raffinare i risultati recuperati, assicurando che vengano trasmesse solo le informazioni più importanti dal punto di vista contestuale.
  2. Generazione aumentata: Le informazioni recuperate vengono poi combinate con la richiesta originale dell'utente. Questa nuova richiesta, arricchita, viene inserita nel modello generativo dell'intelligenza artificiale (LLM). Il modello utilizza questo contesto aggiunto per formulare una risposta completa, accurata e pertinente. Framework come LangChain e LlamaIndex sono comunemente utilizzati per costruire e gestire queste complesse pipeline di RAG.

Applicazioni ed esempi

Il RAG è particolarmente utile negli scenari che richiedono accuratezza dei fatti e accesso a dati dinamici o specializzati.

  • Sistemi avanzati di risposta alle domande: Un chatbot per l'assistenza clienti può utilizzare il RAG per accedere all'intera base di conoscenze di un'azienda, composta da manuali di prodotto, guide alla risoluzione dei problemi e documenti di politica. Quando un cliente chiede "Qual è la politica di garanzia per il mio prodotto?", il sistema recupera l'ultimo documento di garanzia e lo utilizza per fornire una risposta precisa e aggiornata, un miglioramento significativo rispetto alle risposte generiche.
  • Creazione di contenuti e ricerca: Un analista finanziario potrebbe utilizzare uno strumento alimentato da RAG per scrivere una sintesi del mercato. Lo strumento potrebbe recuperare gli ultimi rapporti finanziari, le notizie di mercato e i dati sulle performance dei titoli da fonti affidabili come Bloomberg o Reuters. Il LLM sintetizza quindi queste informazioni in un rapporto coerente, completo di citazioni, accelerando notevolmente il processo di ricerca.

RAG e concetti correlati

È utile distinguere il RAG da altri metodi utilizzati per migliorare le prestazioni del LLM:

  • Fine-tuning: Il fine-tuning adatta un modello pre-addestrato continuando l'addestramento su un set di dati più piccolo e specializzato, che modifica i pesi interni del modello. A differenza di RAG, non consulta dati esterni durante l'inferenza. Il fine-tuning è ideale per insegnare a un modello un nuovo stile o una nuova abilità, mentre il RAG è più adatto per incorporare conoscenze fattuali. Questi approcci possono anche essere complementari.
  • Ingegneria dei prompt: Si tratta del processo manuale di progettazione accurata dei prompt per ottenere l'output desiderato da un LLM. RAG automatizza una parte di questo processo aggiungendo programmaticamente ("aumentando") il prompt con i dati recuperati, piuttosto che affidarsi a un umano che fornisca manualmente tutto il contesto.
  • Arricchimento immediato: Sebbene sia simile a RAG, l'arricchimento dei prompt è un termine più ampio. Potrebbe comportare l'aggiunta di un contesto dalla cronologia dell'utente o dal flusso della conversazione. Il RAG è un tipo specifico di arricchimento che si concentra sul recupero di informazioni fattuali da una base di conoscenza esterna per fondare la risposta del modello.

RAG in Computer Vision

Sebbene la RAG sia utilizzata prevalentemente nell'elaborazione del linguaggio naturale (NLP), il suo concetto di base viene esplorato per compiti di computer vision (CV). Ad esempio, un sistema potrebbe recuperare informazioni visive rilevanti per guidare la generazione o l'analisi delle immagini. Ciò potrebbe comportare la ricerca di immagini simili da un ampio set di dati per migliorare le prestazioni di un modello di rilevamento degli oggetti come Ultralytics YOLO. La gestione di questi modelli e set di dati complessi è semplificata da piattaforme come Ultralytics HUB, che potrebbe servire come base per future applicazioni di modelli multimodali che utilizzano RAG. È possibile esplorare un'implementazione correlata nel nostro blog sul miglioramento dell'intelligenza artificiale con RAG e la computer vision.

Unitevi alla comunità di Ultralytics

Entrate a far parte del futuro dell'IA. Connettetevi, collaborate e crescete con gli innovatori globali.

Iscriviti ora
Link copiato negli appunti