Glossario

TPU (Tensor Processing Unit)

Scopri come le unità di elaborazione Tensor (TPU) accelerano le attività di apprendimento automatico come la formazione, l'inferenza e il rilevamento di oggetti con un'efficienza senza pari.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

Una Tensor Processing UnitTPU) è un acceleratore di apprendimento automatico progettato su misura e sviluppato da Google specificamente per i carichi di lavoro delle reti neurali. Questi processori specializzati, un tipo di circuito integrato specifico per le applicazioni (ASIC), sono progettati per accelerare e scalare notevolmente le operazioni di apprendimento automatico, in particolare per le attività di inferenza e formazione. Le TPU sono progettate per gestire i complessi calcoli matematici coinvolti nell'intelligenza artificiale (AI) e offrono miglioramenti significativi delle prestazioni rispetto alle unità di elaborazione centrale (CPU) e spesso alle unità di elaborazione grafica (GPU) per alcuni tipi di modelli di apprendimento automatico. Sono particolarmente efficaci per i calcoli su larga scala comuni nel deep learning.

Cos'è il TPU?

Una TPU è costruita da zero per soddisfare le esigenze uniche dell'apprendimento automatico (ML). A differenza dei processori generici come le CPU o le GPU, che gestiscono una gamma più ampia di compiti, le TPU sono costruite appositamente per eccellere nei calcoli dei tensor , le operazioni matematiche fondamentali delle reti neurali (NN). I tensori sono matrici multidimensionali che rappresentano i dati nei modelli di ML e le TPU sono ottimizzate per eseguire moltiplicazioni matriciali su larga scala e altre algebre tensor ad alta velocità ed efficienza energetica. Questa specializzazione permette alle TPU di eseguire compiti di ML molto più rapidamente delle CPU e, in molti scenari, in modo più efficiente delle GPU, soprattutto quando si lavora con framework come TensorFlow per i quali sono state inizialmente ottimizzate. Il supporto per altri framework come PyTorch per i quali è stato inizialmente ottimizzato, ampliando così le possibilità di utilizzo. Per saperne di più sulle caratteristiche specifiche, consulta l'Introduzione aGoogle Cloud TPU .

Applicazioni delle TPU

Le TPU sono ampiamente utilizzate in varie applicazioni, in particolare quelle alimentate dai servizi Google e sempre più in ambiti più ampi di AI e ML accessibili tramite piattaforme come Google Cloud. Le applicazioni principali includono:

  • Formazione di modelli su larga scala: Le TPU eccellono nell'addestramento di modelli di deep learning massivi che richiedono un'immensa potenza di calcolo e setup di addestramento distribuiti. Ad esempio, Google utilizza le TPU internamente per addestrare modelli sofisticati per servizi come Google Search e Google Translate, gestendo vasti set di dati e architetture complesse.
  • Inferenza su grandi volumi: Per le applicazioni che richiedono un'inferenza veloce ed efficiente su grandi volumi di dati, le TPU forniscono un'accelerazione significativa. Questo è fondamentale per servizi in tempo reale come l'elaborazione del linguaggio naturale (NLP) nei chatbot o per attività di computer vision (CV) come il rilevamento di oggetti su larga scala in Google Photos.
  • Ricerca e sviluppo: I ricercatori sfruttano le TPU attraverso piattaforme cloud e ambienti come Kaggle (vedi la guida all'integrazione diUltralytics con Kaggle) per accelerare gli esperimenti e sviluppare modelli di intelligenza artificiale all'avanguardia, come quelli utilizzati nell'analisi delle immagini mediche o nelle simulazioni scientifiche.
  • Edge Computing: Le versioni più piccole, note come Edge TPU, portano le capacità di inferenza ML direttamente sui dispositivi, consentendo applicazioni nell'IoT e nella robotica che richiedono bassa latenza ed elaborazione offline. Scopri di più sui principi dell'edge computing.

TPU vs GPU vs CPU

Sebbene le TPU, le GPU e le CPU siano tutte in grado di elaborare calcoli, sono progettate per scopi diversi ed eccellono in compiti diversi:

  • CPU (Central Processing Unit): Il cervello di un computer standard, progettato per compiti di calcolo di uso generale. Gestisce le operazioni di sistema, esegue le istruzioni dei programmi in modo sequenziale e gestisce diversi carichi di lavoro, ma è relativamente lenta per i calcoli paralleli massicci necessari per il deep learning. Per saperne di più sul confronto traCPU e GPU .
  • GPU (Graphics Processing Unit): Originariamente progettate per il rendering grafico, le GPU sono dotate di migliaia di core ottimizzati per l'elaborazione in parallelo. Questo le rende molto efficaci per l'addestramento e l'esecuzione di molti modelli ML, offrendo un buon equilibrio tra prestazioni e flessibilità in varie attività come il rilevamento di oggetti con i modelliYOLO di Ultralytics . I principali fornitori includono NVIDIA e AMD.
  • TPU (Tensor Processing Unit): Progettata specificamente come processore matriciale per i carichi di lavoro delle reti neurali. Le TPU offrono prestazioni di punta ed efficienza energetica per operazioni tensor su larga scala, in particolare nell'ambito dell'ecosistema di Google(TensorFlowe PyTorch su Google Cloud). Potrebbero essere meno flessibili delle GPU per l'elaborazione in parallelo in generale, ma possono offrire vantaggi sostanziali in termini di costi e velocità per attività specifiche di ML su larga scala ospitate su piattaforme come Google Cloud Platform.

In sintesi, le TPU rappresentano un significativo progresso nell'hardware progettato specificamente per le esigenze del moderno machine learning, offrendo prestazioni ed efficienza migliorate per applicazioni specifiche di IA, in particolare per lavori di formazione e inferenza su larga scala. Sono complementari ad altri acceleratori come le GPU e offrono opzioni a seconda del carico di lavoro specifico, della scala e dell'ecosistema software. Puoi esplorare le opzioni di formazione, comprese le risorse cloud, tramite piattaforme come Ultralytics HUB, che offre funzionalità di formazione e gestione dei modelli semplificate. Per ulteriori informazioni sulle tendenze dell'intelligenza artificiale, visita il blog di Ultralytics .

Leggi tutto