Glossario

Trasformatore

Scopri come i Transformers rivoluzionano la PNL e la CV con l'auto-attenzione, l'elaborazione parallela e le applicazioni reali come YOLO e ViT.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

Il Transformer è un'architettura di modelli di deep learning introdotta nel 2017 da Vaswani et al. nell'articolo fondamentale "Attention is All You Need". Ha rivoluzionato il campo dell'elaborazione del linguaggio naturale (NLP) e viene sempre più applicato alle attività di visione artificiale (CV). A differenza dei modelli precedenti che si basavano su reti neurali ricorrenti (RNN) o reti neurali convoluzionali (CNN), i Transformer si basano esclusivamente su un meccanismo di attenzione per tracciare dipendenze globali tra input e output.

Componenti del nucleo dei trasformatori

L'architettura del Transformer si basa su una struttura encoder-decoder. L'encoder elabora la sequenza di ingresso e genera una rappresentazione contestualizzata, mentre il decoder utilizza questa rappresentazione per produrre la sequenza di uscita. L'innovazione principale è il meccanismo di auto-attenzione, che permette al modello di valutare l'importanza di ogni parte della sequenza in ingresso rispetto a tutte le altre. Questo meccanismo permette al modello di catturare le dipendenze a lungo raggio in modo più efficace rispetto alle RNN.

Come funzionano i trasformatori

I trasformatori elaborano i dati di input in parallelo, a differenza delle RNN, che elaborano i dati in modo sequenziale. Questa elaborazione parallela è resa possibile dal meccanismo di auto-attenzione, che calcola le relazioni tra tutte le parole di una frase contemporaneamente. Il modello incorpora anche delle codifiche posizionali per conservare le informazioni sull'ordine delle parole nella sequenza di input. Il codificatore e il decodificatore sono costituiti da più livelli, ognuno dei quali contiene reti neurali di auto-attenzione e di feed-forward. Questa struttura a strati permette al modello di apprendere modelli e rappresentazioni complesse dai dati.

Vantaggi dei trasformatori

I trasformatori offrono diversi vantaggi rispetto alle architetture precedenti. La loro capacità di elaborare i dati in parallelo riduce significativamente i tempi di formazione. Il meccanismo di auto-attenzione permette di catturare in modo più efficace le dipendenze a lungo raggio, migliorando le prestazioni nei compiti che richiedono la comprensione del contesto. Inoltre, i Transformer sono altamente scalabili e possono essere addestrati su grandi insiemi di dati, rendendoli adatti a un'ampia gamma di applicazioni. I modelli Ultralytics YOLO modelli supportano un modello di trasformatore progettato per il rilevamento degli oggetti.

Applicazioni del mondo reale

I trasformatori sono stati applicati con successo a diversi compiti di NLP, tra cui la traduzione automatica, la sintesi del testo e la risposta alle domande. Ad esempio, il BERT (Bidirectional Encoder Representations from Transformers) diGoogle e il GPT (Generative Pre-trained Transformer) di OpenAI sono entrambi basati sull'architettura Transformer e hanno ottenuto risultati all'avanguardia in numerosi benchmark NLP. Nella computer vision, modelli come il Vision Transformer (ViT) hanno dimostrato che i Transformer possono superare le CNN nei compiti di classificazione delle immagini trattando le immagini come sequenze di patch.

Transformers vs. altri modelli

Rispetto alle RNN, i trasformatori eccellono nel catturare le dipendenze a lungo raggio e possono essere addestrati molto più velocemente grazie alla loro capacità di elaborazione parallela. Mentre le CNN sono efficienti nell'elaborazione di dati di tipo reticolare come le immagini, i trasformatori sono più flessibili e possono gestire sequenze di lunghezza variabile, il che li rende adatti sia a compiti di PNL che di CV. A differenza dei Large Language Models (LLM), che si concentrano principalmente sulla generazione e sulla comprensione del testo, i Transformers hanno una gamma di applicazioni più ampia, che comprende sia compiti linguistici che di visione.

Il futuro dei Transformers

L'architettura dei Transformer continua a evolversi, con ricerche in corso volte a migliorarne l'efficienza e ad estenderne le applicazioni. Innovazioni come l'attenzione rada e l'attenzione lineare mirano a ridurre il costo computazionale dell'autoattenzione, rendendo possibile l'applicazione dei Transformer a sequenze ancora più lunghe. I ricercatori stanno anche esplorando modi per combinare i punti di forza dei Transformer con altre architetture, come le CNN, per creare modelli ibridi che eccellano in diversi compiti. Con il progredire del settore, si prevede che i trasformatori giocheranno un ruolo sempre più importante nel progresso dell'intelligenza artificiale (AI) e dell'apprendimento automatico (ML). Per saperne di più su questi progressi, visita il blogUltralytics .

Leggi tutto