Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Edge AI

Esplora l'Edge AI e scopri come implementare Ultralytics su hardware locale per ottenere inferenze in tempo reale, latenza ridotta e maggiore privacy dei dati all'edge.

L'Edge AI si riferisce all'implementazione di algoritmi e modelli di intelligenza artificiale (AI) direttamente su dispositivi hardware locali, come smartphone, sensori IoT, droni e veicoli connessi, piuttosto che affidarsi a centri di cloud computing centralizzati . Questo approccio decentralizzato consente di elaborare i dati alla fonte della loro creazione, riducendo significativamente la latenza coinvolta nell' invio di informazioni avanti e indietro a server remoti. Eseguendo attività di machine learning (ML) a livello locale, i dispositivi possono prendere decisioni istantanee, funzionare in modo affidabile senza connessione a Internet e migliorare la privacy dei dati conservando le informazioni sensibili sul dispositivo stesso.

Come funziona l'Edge AI

Il nucleo dell'Edge AI consiste nell'eseguire un motore di inferenza su un sistema integrato. Poiché i dispositivi edge hanno in genere una durata della batteria e una potenza di calcolo limitate rispetto ai server cloud, i modelli di IA devono essere altamente efficienti. Gli sviluppatori spesso utilizzano tecniche come la quantizzazione dei modelli o il pruning dei modelli per comprimere grandi reti neurali senza sacrificare in modo significativo la precisione.

Per gestire questi carichi di lavoro in modo efficiente vengono spesso utilizzati acceleratori hardware specializzati. Ne sono un esempio la piattaforma NVIDIA per la robotica e Google Edge TPU per l'inferenza a basso consumo energetico. Anche i framework software svolgono un ruolo fondamentale; strumenti come TensorRT e TFLite ottimizzano i modelli specificamente per questi ambienti limitati, garantendo un'inferenza veloce in tempo reale.

Edge AI vs. Edge Computing

Sebbene i termini siano spesso usati in modo intercambiabile, è utile distinguerli:

  • Edge Computing: descrive l'infrastruttura fisica più ampia e la topologia di rete in cui l'elaborazione dei dati avviene vicino alla fonte dei dati. È il "dove" dell'equazione.
  • Edge AI: si riferisce specificatamente alle applicazioni intelligenti in esecuzione su tale infrastruttura. È il "cosa". Ad esempio, una telecamera di sicurezza funge da dispositivo di edge computing, ma quando utilizza la visione artificiale (CV) per riconoscere una persona specifica , sta eseguendo Edge AI.

Applicazioni nel mondo reale

L'Edge AI sta trasformando i settori industriali consentendo un processo decisionale autonomo in scenari critici:

  • Veicoli autonomi: le auto a guida autonoma generano terabyte di dati ogni giorno. Non possono fare affidamento sul cloud per identificare pedoni o ostacoli a causa della latenza del segnale. Utilizzano invece l'Edge AI di bordo per il rilevamento istantaneo degli oggetti e garantire la sicurezza dei passeggeri.
  • Produzione intelligente: nell' Industrial IoT (IIoT), i sensori presenti negli stabilimenti produttivi utilizzano l'Edge AI per la manutenzione predittiva. Analizzando i dati relativi alle vibrazioni e alla temperatura a livello locale, il sistema è in grado di detect e prevedere i guasti alle apparecchiature in tempo reale, evitando costosi tempi di inattività.
  • Assistenza sanitaria: i dispositivi medici portatili dotati di VisionAI sono in grado di analizzare immagini mediche o parametri vitali dei pazienti direttamente nel luogo di cura, fornendo un supporto diagnostico immediato nelle aree remote con scarsa connettività.

Distribuzione dei modelli ai bordi

L'implementazione di un modello nell'edge comporta in genere l'addestramento di un modello in un ambiente ad alta potenza di calcolo e la sua successiva esportazione in un formato compatibile con i dispositivi edge, come ONNX o OpenVINO. La Ultralytics semplifica questo flusso di lavoro, consentendo agli utenti di addestrare ed esportare automaticamente modelli per vari target edge.

L'esempio seguente mostra come esportare un modello YOLO26 leggero, progettato specificamente per garantire efficienza, in un formato adatto all'implementazione su dispositivi mobili e periferici.

from ultralytics import YOLO

# Load the YOLO26 Nano model, which is optimized for speed on edge devices
model = YOLO("yolo26n.pt")

# Export the model to TFLite format for deployment on Android or Raspberry Pi
# This creates a 'yolo26n.tflite' file ready for edge inference
model.export(format="tflite")

Le implementazioni edge avanzate utilizzano spesso tecnologie di containerizzazione come Docker per impacchettare le applicazioni, garantendo che funzionino in modo coerente su diverse architetture di dispositivi, dalle unità Raspberry Pi ai gateway industriali.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora