Glossario

Generazione aumentata di recupero (RAG)

Scopri come la Retrieval Augmented Generation (RAG) migliora i modelli di AI integrando dati esterni affidabili e in tempo reale per ottenere risposte precise e aggiornate.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

La Retrieval Augmented Generation (RAG) è una tecnica avanzata di intelligenza artificiale (AI) progettata per migliorare la qualità e l'affidabilità delle risposte generate dai Large Language Models (LLM). Funziona combinando le capacità generative di un LLM con un sistema di recupero delle informazioni. Prima di generare una risposta, il sistema RAG recupera frammenti di informazioni rilevanti da una fonte di conoscenza predefinita (come i documenti interni di un'azienda, un database specifico o il web). Questo contesto recuperato viene poi fornito al LLM insieme alla domanda originale dell'utente, consentendo al modello di generare risposte più accurate, aggiornate e basate su dati reali, attenuando così problemi come le allucinazioni.

Come funziona la Generazione Aumentata del Recupero

Il processo RAG prevede in genere due fasi principali:

  1. Recupero: Quando un utente fornisce una richiesta o un'interrogazione, il sistema utilizza questo input per cercare in un ampio corpus di documenti o in un database vettoriale. Questa ricerca mira a trovare segmenti di testo o documenti che contengono informazioni rilevanti per la query. In questo caso vengono spesso utilizzate tecniche come la ricerca semantica per trovare informazioni simili al contesto e non solo parole chiave.
  2. Generazione: Le informazioni rilevanti recuperate nella prima fase vengono poi combinate con il messaggio originale dell'utente. Questa richiesta aumentata, ora ricca di un contesto specifico, viene inviata all'LLM. L'LLM utilizza sia la domanda originale che il contesto fornito per sintetizzare una risposta completa e fondata sui fatti. Questo processo è stato introdotto formalmente in ricerche come quella sulla Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks.

Vantaggi e applicazioni

Il RAG offre diversi vantaggi rispetto all'utilizzo dei soli LLM standard:

  • Miglioramento dell'accuratezza: basando le risposte su dati esterni, il RAG riduce la probabilità che il LLM generi informazioni errate o inventate.
  • Accesso alle informazioni aggiornate: I sistemi RAG possono accedere a informazioni aggiornate memorizzate nella loro base di conoscenza, superando la limitazione dei LLM le cui conoscenze sono congelate al momento dell'ultima formazione.
  • Conoscenza specifica del dominio: Permette ai LLM di fornire risposte di livello esperto in domini specializzati, recuperando informazioni da documenti tecnici o database specifici.
  • Trasparenza e fiducia: I sistemi RAG possono spesso citare le fonti utilizzate per la generazione, aumentando la fiducia degli utenti e consentendo il fact-checking, fondamentale per l'etica dell'IA.

Esempi del mondo reale:

  1. Gestione della conoscenza aziendale: Le aziende utilizzano RAG per creare chatbot interni in grado di rispondere con precisione alle domande dei dipendenti recuperando informazioni da policy interne, manuali tecnici e report archiviati in piattaforme come SharePoint o basi di conoscenza dedicate.
  2. Automazione dell'assistenza clienti: Le piattaforme di assistenza clienti sfruttano il RAG per fornire agli agenti di assistenza o ai chatbot informazioni pertinenti provenienti da FAQ, documentazione sui prodotti e ticket di assistenza precedenti, consentendo una risoluzione più rapida e accurata delle domande dei clienti. Strumenti come Zendesk incorporano queste funzionalità.

RAG e concetti correlati

  • RAG vs. LLM standard: Le LLM standard generano risposte basate esclusivamente sui modelli appresi durante l'addestramento. RAG migliora questo aspetto incorporando dinamicamente informazioni esterne al momento dell'inferenza, ottenendo risultati più concreti e contestualmente rilevanti.
  • RAG vs. Fine-Tuning: Il fine-tuning adatta un modello pre-addestrato a compiti o domini specifici continuando il processo di addestramento su un set di dati più piccolo e specializzato. Pur essendo efficace, richiede risorse computazionali significative e una riqualificazione per aggiornare le conoscenze. Il RAG consente di aggiornare le conoscenze semplicemente modificando la fonte di dati esterna senza riqualificare il LLM, rendendolo più flessibile per informazioni in rapida evoluzione. Il RAG e il fine-tuning possono anche essere utilizzati insieme.
  • RAG vs. ingegneria del prompt: L 'ingegnerizzazione del prompt implica un'attenta elaborazione del messaggio di input per guidare la risposta del LLM. Il RAG automatizza il processo di fornitura del contesto rilevante all'interno del prompt recuperandolo da una fonte esterna. Framework come LangChain e LlamaIndex forniscono strumenti per costruire pipeline RAG.

Il RAG rappresenta un passo significativo verso la creazione di sistemi di intelligenza artificiale più consapevoli e affidabili, colmando il divario tra la vasta potenza generativa dei LLM e la necessità di accuratezza dei fatti. Sebbene sia spesso associato al testo, il concetto potrebbe potenzialmente estendersi al potenziamento di modelli quali Ultralytics YOLO recuperando esempi visivi o metadati rilevanti, anche se si tratta di un'area di ricerca emergente nella computer vision. Piattaforme come Ultralytics HUB facilitano la gestione di modelli e set di dati che potrebbero potenzialmente servire come fonti di conoscenza in future applicazioni RAG multimodali. L'esplorazione dei set di dati disponibili può fornire indicazioni sul tipo di informazioni strutturate che potrebbero essere utili.

Leggi tutto