Glossario

Modellazione del linguaggio

Scopri come la modellazione linguistica alimenta applicazioni NLP e AI come la generazione di testi, la traduzione automatica e il riconoscimento vocale con tecniche avanzate.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

La modellazione linguistica è un'attività fondamentale nell'ambito dell'elaborazione del linguaggio naturale (NLP) e dell'intelligenza artificiale (AI), incentrata sulla previsione della probabilità che una sequenza di parole si verifichi in una determinata lingua. In sostanza, si tratta di costruire modelli che comprendano gli schemi statistici e le strutture grammaticali del linguaggio umano, consentendo alle macchine di elaborare, comprendere e generare testi che assomiglino alla comunicazione umana. Questi modelli imparano da grandi quantità di dati testuali per cogliere le relazioni tra le parole e i loro modelli di utilizzo tipici.

Come funziona la modellazione linguistica

In sostanza, un modello linguistico assegna una probabilità a una sequenza di parole. I primi approcci si basavano su metodi statistici come gli n-grammi, che calcolano la probabilità di una parola in base alle "n-1" parole precedenti. Pur essendo semplici, questi modelli non riescono a catturare le dipendenze a lungo raggio nel testo. La modellazione linguistica moderna utilizza molto le reti neurali (NN), in particolare architetture come le reti neurali ricorrenti (RNN) e, più recentemente, i trasformatori. I trasformatori, introdotti nell'articolo "Attention Is All You Need", utilizzano meccanismi come l'auto-attenzione per valutare l'importanza delle diverse parole in una sequenza, indipendentemente dalla loro distanza, consentendo una migliore comprensione del contesto. L'addestramento di questi modelli prevede l'elaborazione di grandi corpora di testo, la scomposizione del testo tramite tokenizzazione e l'apprendimento di rappresentazioni(embeddings) per questi tokens.

Rilevanza e applicazioni

La modellazione linguistica è una tecnologia fondamentale che alimenta molte applicazioni di intelligenza artificiale che interagiscono con il linguaggio umano. La sua capacità di prevedere e comprendere le sequenze di parole la rende preziosa in diversi ambiti.

Le applicazioni del mondo reale includono:

Concetti correlati

La comprensione della modellazione linguistica implica la familiarità con i termini correlati:

  • Elaborazione del linguaggio naturale (NLP): La modellazione del linguaggio è un sottocampo del più ampio dominio NLP, che comprende vari compiti come il riconoscimento delle entità denominate (NER), l'etichettatura delle parti del discorso e la risposta alle domande. Molti compiti di NLP sfruttano i modelli linguistici.
  • Modelli linguistici di grandi dimensioni (LLM): Si tratta di modelli linguistici molto avanzati, come il GPT-4, caratterizzati da dimensioni enormi (miliardi di parametri) e dall'addestramento su enormi set di dati(Big Data). Gli LLM mostrano notevoli capacità di comprensione e generazione di testi simili a quelli umani per compiti complessi. Molti LLM pre-addestrati sono disponibili su piattaforme come Hugging Face.
  • Generazione del testo: Anche se strettamente correlata, la generazione di testi è un'applicazione della modellazione linguistica. Il modello linguistico fornisce le probabilità delle sequenze di parole e il processo di generazione utilizza queste probabilità (spesso con strategie di campionamento) per produrre un nuovo testo.
  • Modelli multimodali: Questi modelli integrano la comprensione del linguaggio con altri tipi di dati, come le immagini nella Computer Vision (CV). Modelli come CLIP apprendono rappresentazioni congiunte di testo e immagini, consentendo di svolgere attività come la sottotitolazione di immagini o la risposta a domande visive. Esplora Ultralytics HUB per trovare gli strumenti per gestire e distribuire vari modelli di intelligenza artificiale, compresi quelli che potenzialmente integrano le capacità linguistiche.
Leggi tutto