Glossario

Gettone

Scopri come i token, gli elementi costitutivi dei modelli di intelligenza artificiale, alimentano l'NLP, la computer vision e attività come l'analisi del sentimento e il rilevamento degli oggetti.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

Nel regno dell'Intelligenza Artificiale e dell'Apprendimento Automatico, in particolare nell'elaborazione del linguaggio naturale (NLP) e sempre più nella computer vision, un "token" rappresenta la più piccola unità di dati che un modello elabora. I token sono gli elementi fondamentali che i modelli di intelligenza artificiale utilizzano per comprendere e analizzare le informazioni, siano esse testi, immagini o altre forme di dati.

Capire i gettoni

La tokenizzazione è il processo di scomposizione dei dati grezzi in pezzi più piccoli e digeribili. In NLP, ad esempio, il testo viene tokenizzato in parole, unità di sottoparole o addirittura caratteri. Questo processo trasforma il testo continuo in unità discrete che i modelli di apprendimento automatico possono elaborare in modo efficace. Il modo in cui i dati vengono tokenizzati può avere un impatto significativo sulle prestazioni e sull'efficienza del modello.

I token sono fondamentali perché i modelli di apprendimento automatico, soprattutto quelli di deep learning come quelli utilizzati in Ultralytics YOLO , non possono elaborare direttamente dati grezzi e non strutturati. Richiedono che i dati siano in un formato numerico o discreto. La tokenizzazione funge da ponte, convertendo input complessi in un formato che gli algoritmi possono comprendere e da cui possono imparare. Questa trasformazione è essenziale per attività come la generazione di testi, l'analisi del sentiment e il rilevamento di oggetti.

Applicazioni dei gettoni

I token trovano applicazione in diverse attività di AI e ML. Ecco un paio di esempi concreti:

  • Elaborazione del linguaggio naturale (NLP): in NLP, i token sono i cavalli di battaglia dei modelli linguistici. Ad esempio, quando si esegue l'analisi del sentimento, una frase come "Questo film è stato fantastico!" può essere tokenizzata in ["Questo", "film", "è stato", "fantastico", "!"]. Ognuno di questi token viene poi convertito in una rappresentazione numerica, come i word embeddings, che il modello utilizza per comprendere il sentiment. I modelli linguistici di grandi dimensioni come GPT-4 e GPT-3 si basano molto sui token per elaborare e generare il testo. Tecniche come il prompt chaining e il prompt tuning sono progettate per manipolare e ottimizzare sequenze di token per ottenere i risultati desiderati da questi modelli.

  • Visione artificiale: Sebbene siano tradizionalmente associati all'NLP, i token sono sempre più importanti nei moderni modelli di computer vision, soprattutto con l'avvento dei Vision Transformers (ViT). In modelli come il Segment Anything Model (SAM), le immagini sono spesso suddivise in patch, che possono essere considerate come token visivi. Questi token visivi vengono poi elaborati dalle reti di trasformatori, sfruttando i meccanismi di attenzione per comprendere le relazioni tra le diverse parti dell'immagine per compiti come la segmentazione delle immagini e il rilevamento degli oggetti. Anche nei modelli di rilevamento degli oggetti come Ultralytics YOLOv8, pur non utilizzando esplicitamente i "token visivi" come i ViT, il concetto di scomporre un'immagine in una griglia ed elaborare ogni cella della griglia può essere visto come una forma di tokenizzazione implicita, in cui ogni cella della griglia diventa un'unità di analisi.

La comprensione dei token è fondamentale per capire come i modelli di IA elaborano le informazioni. Con l'evoluzione dell'IA, il concetto di token e di tokenizzazione diventerà probabilmente ancora più centrale per gestire diversi tipi di dati e costruire modelli più sofisticati ed efficienti.

Leggi tutto