Entdecken Sie Edge-KI und erfahren Sie, wie Sie Ultralytics auf lokaler Hardware für Echtzeit-Inferenz, reduzierte Latenz und verbesserten Datenschutz am Rand einsetzen können.
Edge-KI bezieht sich auf den Einsatz von Algorithmen und Modellen der künstlichen Intelligenz (KI) direkt auf lokalen Hardwaregeräten – wie Smartphones, IoT-Sensoren, Drohnen und vernetzten Fahrzeugen – anstatt sich auf zentralisierte Cloud-Computing-Zentren zu verlassen. Dieser dezentrale Ansatz ermöglicht die Verarbeitung von Daten an der Quelle ihrer Entstehung, wodurch die Latenz beim Hin- und Hersenden von Informationen an Remote-Server erheblich reduziert wird. Durch die lokale Ausführung von Machine-Learning-Aufgaben (ML) können Geräte sofortige Entscheidungen treffen, ohne Internetverbindung zuverlässig arbeiten und den Datenschutz verbessern, indem sensible Informationen auf dem Gerät selbst gespeichert bleiben.
Der Kern von Edge-KI besteht darin, eine Inferenz-Engine auf einem eingebetteten System auszuführen. Da Edge-Geräte im Vergleich zu Cloud-Servern in der Regel eine begrenzte Akkulaufzeit und Rechenleistung haben, müssen die KI-Modelle äußerst effizient sein. Entwickler verwenden häufig Techniken wie Modellquantisierung oder Modellbeschneidung, um große neuronale Netze zu komprimieren, ohne dabei nennenswerte Genauigkeitseinbußen hinnehmen zu müssen.
Spezialisierte Hardware-Beschleuniger werden häufig eingesetzt, um diese Workloads effizient zu bewältigen. Beispiele hierfür sind die NVIDIA für Robotik und die Google Edge TPU für Inferenz mit geringem Stromverbrauch. Software-Frameworks spielen ebenfalls eine wichtige Rolle; Tools wie TensorRT und TFLite optimieren Modelle speziell für diese eingeschränkten Umgebungen und gewährleisten eine schnelle Echtzeit-Inferenz.
Obwohl die Begriffe oft synonym verwendet werden, ist es hilfreich, zwischen ihnen zu unterscheiden:
Edge-KI verändert Branchen, indem sie autonome Entscheidungen in kritischen Szenarien ermöglicht:
Die Bereitstellung eines Modells am Edge umfasst in der Regel das Trainieren eines Modells in einer hochrechenintensiven Umgebung und den anschließenden Export in ein mit Edge-Geräten kompatibles Format, wie z. B. ONNX oder OpenVINO. Die Ultralytics vereinfacht diesen Arbeitsablauf und ermöglicht es Benutzern, Modelle für verschiedene Edge-Ziele zu trainieren und automatisch zu exportieren.
Das folgende Beispiel zeigt, wie ein leichtgewichtiges YOLO26 -Modell, das speziell auf Effizienz ausgelegt ist, in ein Format exportiert wird, das für den Einsatz auf Mobilgeräten und Edge-Geräten geeignet ist.
from ultralytics import YOLO
# Load the YOLO26 Nano model, which is optimized for speed on edge devices
model = YOLO("yolo26n.pt")
# Export the model to TFLite format for deployment on Android or Raspberry Pi
# This creates a 'yolo26n.tflite' file ready for edge inference
model.export(format="tflite")
Fortgeschrittene Edge-Implementierungen nutzen häufig Containerisierungstechnologien wie Docker, um Anwendungen zu verpacken und sicherzustellen, dass sie über verschiedene Gerätearchitekturen hinweg konsistent laufen, von Raspberry Pi -Einheiten bis hin zu industriellen Gateways.