Glossario

GPU (Unità di elaborazione grafica)

Scopri come le GPU rivoluzionano l'AI e l'apprendimento automatico accelerando l'apprendimento profondo, ottimizzando i flussi di lavoro e abilitando le applicazioni del mondo reale.

Addestra i modelli YOLO semplicemente
con Ultralytics HUB

Per saperne di più

Un'unità di elaborazione graficaGPU) è un circuito elettronico specializzato inizialmente progettato per accelerare la creazione e il rendering di immagini, video e animazioni. Sebbene le GPU siano nate nel settore dei videogiochi e della progettazione grafica, la loro architettura unica le ha rese strumenti indispensabili per la moderna Intelligenza Artificiale (AI) e il Machine Learning (ML). Le GPU possiedono migliaia di core di elaborazione che lavorano in parallelo, consentendo di gestire simultaneamente enormi quantità di calcoli. Questa capacità è particolarmente adatta per i compiti computazionalmente impegnativi degli algoritmi di deep learning, consentendo una formazione più rapida dei modelli e un'inferenza efficiente in tempo reale. La comprensione dell'evoluzione della GPU fornisce un contesto per il suo ruolo attuale nell'IA.

Importanza dell'intelligenza artificiale e dell'apprendimento automatico

Le capacità di elaborazione in parallelo delle GPU sono il principale catalizzatore delle recenti scoperte nel campo dell'intelligenza artificiale. L'addestramento di reti neurali profonde comporta l'elaborazione di enormi set di dati e l'esecuzione di innumerevoli operazioni matematiche complesse, come le moltiplicazioni matriciali. Le GPU eccellono in queste operazioni, riducendo drasticamente il tempo necessario per addestrare i modelli rispetto alle tradizionali unità centrali di elaborazione (CPU). Questa accelerazione consente ai ricercatori e agli sviluppatori nel campo dell'IA di iterare più rapidamente, di sperimentare modelli più grandi e complessi e di ottenere una maggiore precisione in attività come il rilevamento di oggetti e la segmentazione di immagini.

Ecco due esempi di GPU in applicazioni AI/ML del mondo reale:

  1. Rilevamento degli oggetti in tempo reale: I modelliUltralytics YOLO , noti per la loro velocità ed efficienza, si affidano fortemente alle GPU per eseguire il rilevamento degli oggetti in tempo reale per applicazioni come la guida autonoma, la sorveglianza della sicurezza(migliorando i sistemi di sicurezza) e la robotica. La natura parallela delle GPU permette a questi modelli di elaborare rapidamente i fotogrammi video e di identificare con precisione più oggetti contemporaneamente. Esplora le diverse applicazioni diYOLO11 abilitate dall'accelerazione GPU .
  2. Formazione di modelli di grandi dimensioni: L'addestramento di modelli linguistici (LLM) di grandi dimensioni o di complessi modelli di computer vision richiede spesso una notevole potenza di calcolo, spesso accessibile tramite piattaforme di cloud computing. Servizi come Ultralytics HUB Cloud Training sfruttano potenti cluster GPU di provider come AWS, Google Cloud e Azure per addestrare modelli su vasti set di dati per attività che vanno dall'elaborazione del linguaggio naturale (NLP) all'analisi avanzata delle immagini mediche.

Le principali differenze rispetto alle CPU e alle TPU

Le GPU, le CPU e le Tensor Processing Unit (TPU) sono tutti tipi di processori, ma hanno punti di forza diversi e sono ottimizzati per compiti diversi:

  • CPU (Central Processing Unit): Progettata per l'elaborazione generica, eccelle nelle attività sequenziali e nella gestione delle operazioni di sistema. Le CPU hanno pochi e potenti core ottimizzati per una bassa latenza. Vedi una panoramica su CPU e GPU .
  • GPU (Graphics Processing Unit): Ottimizzata per operazioni in parallelo con migliaia di core più semplici. Ideale per attività che possono essere suddivise ed elaborate simultaneamente, come il rendering grafico e l'addestramento di modelli di deep learning. Le prestazioni misurate spesso includono metriche come i FLOPS.
  • TPU (Tensor Processing Unit): Circuito integrato specifico per l'applicazione (ASIC) progettato da Google e realizzato appositamente per accelerare i carichi di lavoro dell'apprendimento automatico utilizzando il software TensorFlow TensorFlow. Sono altamente ottimizzati per le operazioni matriciali su larga scala comuni alle reti neurali. Per saperne di più, visita i dettagli della TPU diGoogle.

Le GPU raggiungono un equilibrio tra prestazioni elevate per le attività di elaborazione in parallelo e versatilità in varie applicazioni, rendendole una scelta popolare per molti carichi di lavoro di AI e HPC (High Performance Computing).

Ecosistema e utilizzo

L'adozione diffusa delle GPU nell'AI è supportata da solidi ecosistemi software. I principali produttori come NVIDIA e AMD offrono GPU adatte alle attività di IA. Il programma di NVIDIACUDA (Compute Unified Device Architecture) di NVIDIA è una piattaforma di elaborazione in parallelo e un modello di programmazione ampiamente utilizzato per le GPU NVIDIA . I framework di deep learning come PyTorch e TensorFlow sono ottimizzati per sfruttare l'accelerazione GPU . L'impostazione degli ambienti per lo sviluppo GPU può essere semplificata utilizzando strumenti di containerizzazione come Docker; fai riferimento allaguida Ultralytics Docker Quickstart per le istruzioni di configurazione. Una distribuzione efficiente dei modelli spesso implica l'ottimizzazione dei modelli per un'esecuzione efficace sull'hardware GPU di destinazione. Esplora le varie soluzioniUltralytics che sfruttano la potenza GPU .

Leggi tutto