Esplora l'Edge AI e scopri come implementare Ultralytics su hardware locale per ottenere inferenze in tempo reale, latenza ridotta e maggiore privacy dei dati all'edge.
L'Edge AI si riferisce all'implementazione di algoritmi e modelli di intelligenza artificiale (AI) direttamente su dispositivi hardware locali, come smartphone, sensori IoT, droni e veicoli connessi, piuttosto che affidarsi a centri di cloud computing centralizzati . Questo approccio decentralizzato consente di elaborare i dati alla fonte della loro creazione, riducendo significativamente la latenza coinvolta nell' invio di informazioni avanti e indietro a server remoti. Eseguendo attività di machine learning (ML) a livello locale, i dispositivi possono prendere decisioni istantanee, funzionare in modo affidabile senza connessione a Internet e migliorare la privacy dei dati conservando le informazioni sensibili sul dispositivo stesso.
Il nucleo dell'Edge AI consiste nell'eseguire un motore di inferenza su un sistema integrato. Poiché i dispositivi edge hanno in genere una durata della batteria e una potenza di calcolo limitate rispetto ai server cloud, i modelli di IA devono essere altamente efficienti. Gli sviluppatori spesso utilizzano tecniche come la quantizzazione dei modelli o il pruning dei modelli per comprimere grandi reti neurali senza sacrificare in modo significativo la precisione.
Per gestire questi carichi di lavoro in modo efficiente vengono spesso utilizzati acceleratori hardware specializzati. Ne sono un esempio la piattaforma NVIDIA per la robotica e Google Edge TPU per l'inferenza a basso consumo energetico. Anche i framework software svolgono un ruolo fondamentale; strumenti come TensorRT e TFLite ottimizzano i modelli specificamente per questi ambienti limitati, garantendo un'inferenza veloce in tempo reale.
Sebbene i termini siano spesso usati in modo intercambiabile, è utile distinguerli:
L'Edge AI sta trasformando i settori industriali consentendo un processo decisionale autonomo in scenari critici:
L'implementazione di un modello nell'edge comporta in genere l'addestramento di un modello in un ambiente ad alta potenza di calcolo e la sua successiva esportazione in un formato compatibile con i dispositivi edge, come ONNX o OpenVINO. La Ultralytics semplifica questo flusso di lavoro, consentendo agli utenti di addestrare ed esportare automaticamente modelli per vari target edge.
L'esempio seguente mostra come esportare un modello YOLO26 leggero, progettato specificamente per garantire efficienza, in un formato adatto all'implementazione su dispositivi mobili e periferici.
from ultralytics import YOLO
# Load the YOLO26 Nano model, which is optimized for speed on edge devices
model = YOLO("yolo26n.pt")
# Export the model to TFLite format for deployment on Android or Raspberry Pi
# This creates a 'yolo26n.tflite' file ready for edge inference
model.export(format="tflite")
Le implementazioni edge avanzate utilizzano spesso tecnologie di containerizzazione come Docker per impacchettare le applicazioni, garantendo che funzionino in modo coerente su diverse architetture di dispositivi, dalle unità Raspberry Pi ai gateway industriali.