Glossario

GPT-3

Scopri le rivoluzionarie funzionalità NLP di GPT-3: generazione di testi, chatbot AI, assistenza al codice e molto altro. Esplora subito le sue applicazioni reali!

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

GPT-3, acronimo di Generative Pre-trained Transformer 3, è un modello linguistico di grandi dimensioni (LLM) molto influente sviluppato da OpenAI. Rilasciato nel 2020, ha segnato un significativo progresso nelle capacità di elaborazione del linguaggio naturale (NLP). Il GPT-3 è progettato per comprendere e generare testi simili a quelli umani in base all'input che riceve, rendendolo versatile per un'ampia gamma di compiti basati sul linguaggio nel campo dell'intelligenza artificiale (AI).

Architettura e formazione

GPT-3 utilizza l'architettura Transformer, in particolare la parte di decodifica, che si basa molto sui meccanismi di auto-attenzione per valutare l'importanza delle diverse parole (rappresentate come token) nella sequenza di input. La sua natura "pre-addestrata" significa che è stato addestrato su un enorme set di dati che comprende testi provenienti da internet e libri digitalizzati prima di essere rilasciato. Questo addestramento estensivo su dati diversi permette al modello di imparare la grammatica, i fatti, le capacità di ragionamento e i diversi stili di scrittura. La versione più grande di GPT-3 ha 175 miliardi di parametri, ovvero le variabili che il modello apprende durante l'addestramento. Questa scala non aveva precedenti all'epoca del suo rilascio e ha contribuito in modo significativo alle sue prestazioni, come documentato nell'articolo di ricerca originale sul GPT-3.

Capacità e applicazioni

Il GPT-3 eccelle nella generazione di testi coerenti e contestualmente rilevanti. Le sue capacità si estendono a diversi compiti di NLP, spesso richiedendo esempi minimi specifici per il compito, un concetto noto come "few-shot learning" o addirittura "zero-shot learning". Le applicazioni principali includono:

  • Generazione di testi: Creazione di articoli, storie, e-mail e altri contenuti scritti.
  • Traduzione automatica: Tradurre un testo tra diverse lingue.
  • Riassunto del testo: Condensare documenti lunghi in riassunti più brevi.
  • Risposta alle domande: Fornisce risposte a domande basate sul contesto di input o sulle conoscenze apprese.
  • Generazione di codice: Assistere gli sviluppatori scrivendo snippet di codice in vari linguaggi di programmazione.
  • Chatbot e assistenti virtuali: Alimentare agenti conversazionali in grado di dialogare.

Due esempi concreti dell'applicazione di GPT-3 includono l'alimentazione delle prime versioni di AI conversazionale come ChatGPT per dialoghi coinvolgenti e l'attivazione di strumenti di assistenza al codice come GitHub Copilot, che suggerisce agli sviluppatori il completamento del codice.

GPT-3 nel contesto

Il GPT-3 fa parte della serie Generative Pre-trained Transformer (GPT) ed è stato un precursore di modelli come il GPT-4, che in genere offrono capacità migliorate e caratteristiche di apprendimento potenzialmente multimodali. Mentre i modelli GPT sono principalmente generativi, altri LLM come BERT sono spesso ottimizzati per compiti che richiedono una profonda comprensione bidirezionale del linguaggio, come la classificazione o il riconoscimento di entità.

È inoltre importante distinguere i LLM come il GPT-3, che elaborano il testo, dai modelli incentrati sulla Computer Vision (CV). I modelli CV, come il modello Ultralytics YOLO (ad esempio, YOLOv8 o YOLO11), analizzano dati visivi come immagini e video per eseguire compiti come il rilevamento di oggetti, la classificazione di immagini o la segmentazione di istanze. Pur essendo distinti, NLP e CV possono essere combinati in sistemi complessi di AI, gestiti e distribuiti attraverso piattaforme come Ultralytics HUB. Il GPT-3 rimane un modello di riferimento nell'evoluzione dell'apprendimento automatico.

Leggi tutto