Controllo verde
Link copiato negli appunti

Ultralytics YOLO11 su NVIDIA Jetson Orin Nano Super: veloce ed efficiente

Scopri come l'implementazione di Ultralytics YOLO11 su NVIDIA Jetson Orin Nano Super offre benchmark impressionanti e GPU prestazioni accelerate per applicazioni AI avanzate.

Il NVIDIA Jetson Orin Nano Super Developer Kit, lanciato il 17 dicembre 2024, è un supercomputer AI generativo compatto ma potente, progettato per portare funzionalità avanzate all' edge computing. Facilita l'elaborazione in tempo reale ed elimina la necessità di ricorrere al cloud computing. NVIDIA Jetson Orin Nano Super consente agli sviluppatori di creare sistemi intelligenti a prezzi accessibili che funzionano in modo efficiente in ambienti locali.

Se abbinato a Ultralytics YOLO modelli come Ultralytics YOLO11, Jetson Orin Nano Super è in grado di gestire una vasta gamma di applicazioni di IA Vision on the edge. In particolare, YOLO11 è un modello di computer vision noto per la sua velocità e precisione in compiti come il rilevamento di oggetti, il tracciamento di oggetti e la segmentazione di istanze. 

La combinazione delle capacità di YOLO11con la robusta GPU (Graphics Processing Unit) del kit e il supporto di framework come PyTorch, ONNX e NVIDIA TensorRT consente di realizzare implementazioni ad alte prestazioni. Questa combinazione offre agli sviluppatori una soluzione efficiente per creare applicazioni di intelligenza artificiale, dal rilevamento di oggetti nella robotica al tracciamento di oggetti in tempo reale in spazi intelligenti e sistemi di vendita al dettaglio.

In questo articolo analizzeremo il NVIDIA Jetson Orin Nano Super Developer Kit, come funziona con Ultralytics YOLO11 per l'edge AI, i suoi benchmark di prestazioni, le applicazioni reali e come può aiutare gli sviluppatori a realizzare progetti di Vision AI. Iniziamo!

Che cos'è il NVIDIA Jetson Orin Nano Super Developer Kit?

Il NVIDIA Jetson Orin Nano Super Developer Kit è un computer compatto ma potente che ridefinisce l'IA generativa per i piccoli dispositivi edge. Offre fino a 67 TOPS (trilioni di operazioni al secondo) di prestazioni AI, rendendolo ideale per sviluppatori, studenti e hobbisti che lavorano a progetti AI avanzati.

Figura 1. Una panoramica di NVIDIA Jetson Orin Nano Super.

Ecco alcune delle sue caratteristiche principali:

  • GPU prestazioni: Il dispositivo è costruito sull'architettura NVIDIA Ampere GPU, che comprende 1.024 CUDA core e 32 Tensor core. CUDA core elaborano molte attività simultaneamente, velocizzando i calcoli complessi, mentre Tensor core sono specializzati per le attività di intelligenza artificiale come il deep learning. 
  • Potente CPU: è dotato di un processore Arm Cortex-A78AE a 6 core, progettato per bilanciare velocità ed efficienza. Il dispositivo è in grado di gestire più attività senza problemi, mantenendo basso il consumo energetico. Questo è importante per i sistemi che funzionano a livello locale e che non hanno accesso a grandi fonti di energia.
  • Memoria efficiente: Il kit è dotato di 8 GB di memoria LPDDR5 (Low Power Double Data Rate 5). La LPDDR5 è un tipo di memoria RAM (Random Access Memory) ottimizzata per la velocità e l'efficienza energetica, che permette al dispositivo di gestire grandi insiemi di dati e l'elaborazione in tempo reale senza consumare troppa energia.
  • Opzioni di connettività: Include porte USB 3.2 per trasferimenti rapidi di dati, una porta Gigabit Ethernet per connessioni di rete solide e interfacce per telecamere per integrare sensori o fotocamere
  • Strumenti di sviluppo per l'intelligenza artificiale: Jetson Orin Nano Super funziona con l'SDK NVIDIA JetPack, che fornisce strumenti come CUDA per un calcolo più veloce e per ottimizzare i modelli di AI. TensorRT per ottimizzare i modelli di IA. Questi strumenti rendono più facile per gli sviluppatori costruire e distribuire applicazioni di IA in modo rapido ed efficiente.

Parametri di prestazione: Jetson Orin Nano Super vs. Orin NX 16GB

Se conosci il lavoro di NVIDIA, ti starai chiedendo come si colloca questa nuova versione rispetto all'attuale NVIDIA Jetson Orin NX 16GB (senza super mode). Sebbene la Jetson Orin NX offra capacità complessive superiori, il Jetson Orin Nano Super Developer Kit offre prestazioni impressionanti a una frazione del costo. 

Figura 2. Uno sguardo all'ecosistema NVIDIA Jetson Orin.

Ecco una rapida panoramica:

  • Prestazioni AI: Jetson Orin Nano Super offre fino a 67 TOPS, che sono ottimi per la maggior parte delle attività di intelligenza artificiale, mentre Jetson Orin NX offre fino a 100 TOPS per le applicazioni più impegnative.
  • Memoria: Jetson Orin Nano Super include 8 GB di LPDDR5, sufficienti per le attività in tempo reale, mentre Orin NX li raddoppia a 16 GB per carichi di lavoro maggiori.
  • Efficienza energetica: Jetson Orin Nano Super è più efficiente dal punto di vista energetico ed è configurabile tra 7W e 25W, rispetto ai requisiti di potenza più elevati di Jetson Orin NX.
  • GPU: Entrambi condividono l'architettura NVIDIA Ampere con 1.024 CUDA core e 32 Tensor core per prestazioni robuste GPU .

YOLO11 con Jetson Orin Nano Super: portare l'intelligenza artificiale ai confini del mondo

Ora che conosciamo meglio Jetson Orin Nano Super, vediamo come YOLO11 può intervenire per portare le capacità di Vision AI ai margini. Ultralytics I modelli diYOLO , tra cui YOLO11, sono dotati di modalità versatili come addestramento, previsione ed esportazione, che li rendono adattabili a una varietà di flussi di lavoro AI. 

Ad esempio, nella modalità di addestramento, i modelli di Ultralytics YOLO possono essere perfezionati e addestrati su set di dati personalizzati per applicazioni specifiche, come il rilevamento di oggetti unici o l'ottimizzazione per ambienti specifici. Allo stesso modo, la modalità di predizione di è progettata per l'inferenza, consentendo di svolgere attività di computer vision in tempo reale. Infine, la modalità di esportazione può essere utilizzata per convertire i modelli in formati ottimizzati per la distribuzione.

Fig 3. Ultralytics I modelli diYOLO supportano diverse caratteristiche e modalità.

YOLO11 in modalità di esportazione supporta una serie di opzioni di distribuzione del modello, tra cui:

  • NVIDIA TensorRT: Questo formato è ottimizzato per le GPU NVIDIA e offre un'inferenza ad alte prestazioni e a bassa latenza su Jetson Orin Nano Super.
  • ONNX (Open Neural Network Exchange): Garantisce la compatibilità tra varie piattaforme, rendendolo versatile per diversi ecosistemi hardware e software.
  • TorchScript: Questo formato è ideale per le applicazioni basate su PyTorch e favorisce la perfetta integrazione nei flussi di lavoro di PyTorch .
  • TFLite (TensorFlow Lite): Un formato progettato per implementazioni AI leggere, perfetto per i sistemi mobili ed embedded.

Utilizzando questi formati di distribuzione, gli sviluppatori possono sfruttare appieno l'hardware di Jetson Orin Nano Super per eseguire YOLO11 per applicazioni in tempo reale come spazi intelligenti, robotica e automazione della vendita al dettaglio. 

Benchmarking YOLO11 su NVIDIA Jetson Orin Nano Super

Per avere un'idea più precisa della velocità con cui YOLO11 può essere eseguito su NVIDIA Jetson Orin Nano Super, analizziamo le sue impressionanti prestazioni e i benchmark utilizzando GPU- formati di esportazione accelerati come PyTorch, ONNX, e TensorRT. Questi test rivelano che Jetson Orin Nano Super raggiunge tempi di inferenza con i modelli di YOLO11 paragonabili e talvolta superiori a quelli dell'attuale Jetson Orin NX 16GB (senza modalità super).

Figura 4. Benchmarking YOLO11 su NVIDIA Jetson Orin Nano Super.

Ciò che rende questo risultato ancora più notevole è l'accessibilità economica di Jetson Orin Nano Super. Offrendo tali prestazioni a meno della metà del prezzo di Jetson Orin NX 16GB, rappresenta un valore eccezionale per gli sviluppatori che realizzano applicazioni YOLO11 ad alte prestazioni. Questa combinazione di costo e prestazioni rende Jetson Orin Nano Super una scelta eccellente per le attività di Vision AI in tempo reale.

Figura 5. Benchmarking YOLO11 su Jetson Orin NX 16GB.

Scopri il sito YOLO11 e il sito NVIDIA Jetson Orin Nano Super

Se non vedi l'ora di iniziare a distribuire YOLO11 su Jetson Orin Nano Super, c'è una buona notizia: il processo è semplice. Dopo aver flashato il dispositivo con l'SDK NVIDIA JetPack, puoi utilizzare un'immagine Docker precostituita per una rapida configurazione oppure installare manualmente i pacchetti necessari. 

Per chi è alla ricerca di un'integrazione più rapida e perfetta, il contenitore Docker JetPack 6 aggiornato è la soluzione ideale. Un contenitore Docker è un ambiente leggero e portatile che include tutti gli strumenti e le dipendenze necessarie per eseguire un software specifico. 

Il contenitore Ultralytics , ottimizzato per JetPack 6.1, è precaricato con CUDA 12.6, TensorRT 10.3 e strumenti essenziali come PyTorch e TorchVision, tutti adattati all'architettura ARM64 di Jetson. Utilizzando questo container, gli sviluppatori possono risparmiare tempo nella configurazione e concentrarsi sulla creazione e sull'ottimizzazione delle applicazioni Vision AI con YOLO11.

Applicazioni di YOLO11 su NVIDIA Jetson Orin Nano Super

Per chi è in cerca di ispirazione per il suo prossimo progetto di intelligenza artificiale, il potenziale delle applicazioni di computer vision basate sui bordi è tutto intorno a noi. 

Nella vita di tutti i giorni, l'edge AI sta ridefinendo gli spazi intelligenti consentendo ai sistemi di rilevare e tracciare gli oggetti in tempo reale, senza dover ricorrere all'elaborazione su cloud. Sia che si tratti di monitorare il traffico in una città vivace o di identificare attività insolite in spazi pubblici, l'edge Vision AI sta aumentando la sicurezza e l'efficienza.

Anche i rivenditori stanno sfruttando l'intelligenza artificiale e la computer vision. Dai controlli automatizzati dell'inventario alla prevenzione dei furti, modelli come YOLO11 consentono alle aziende di implementare soluzioni in tempo reale direttamente nei negozi. 

Allo stesso modo, quando si parla di IA nel settore sanitario, il monitoraggio edge-based garantisce la sicurezza dei pazienti, rileva le anomalie e mantiene la conformità, il tutto senza ritardi causati dalla dipendenza dal cloud. Grazie a strumenti come Jetson Orin Nano Super e YOLO11, il futuro dell'IA di visione si sta sviluppando proprio ai margini, dove è più necessario.

Punti di forza

L'implementazione di Ultralytics YOLO modelli come YOLO11 sul NVIDIA Jetson Orin Nano Super Developer Kit offre una soluzione affidabile ed efficiente per le applicazioni di intelligenza artificiale. Grazie alle solide prestazioni di GPU , al supporto continuo di PyTorch, ONNX e TensorRT e ai benchmark impressionanti, è adatto a compiti di computer vision in tempo reale come il rilevamento e il tracciamento di oggetti. 

Le innovazioni e le collaborazioni in tecnologie all'avanguardia come Vision AI e l'accelerazione hardware stanno trasformando il nostro modo di lavorare, consentendo agli sviluppatori di creare soluzioni scalabili e ad alte prestazioni ai margini. Con l'avanzare dell'AI, strumenti come YOLO11 e Jetson Orin Nano Super rendono più facile che mai la realizzazione di soluzioni intelligenti e in tempo reale.

Sei curioso di conoscere l'intelligenza artificiale? Visita il nostro repository su GitHub per esplorare i nostri contributi e per entrare in contatto con la nostra comunità. Scopri come stiamo usando l'IA per avere un impatto in settori come l'agricoltura e la sanità.

Logo di FacebookLogo di TwitterLogo di LinkedInSimbolo di copia-link

Leggi tutto in questa categoria

Costruiamo insieme il futuro
di AI!

Inizia il tuo viaggio nel futuro dell'apprendimento automatico