Glossar

Edge Computing

Entdecken Sie die Leistungsfähigkeit von Edge Computing: Steigern Sie die Effizienz, reduzieren Sie Latenzzeiten und ermöglichen Sie KI-Anwendungen in Echtzeit mit lokaler Datenverarbeitung.

Edge Computing ist ein Paradigma der verteilten Datenverarbeitung, das Berechnungen und Datenspeicherung näher an den Ort bringt, an dem sie benötigt werden, um die Reaktionszeiten zu verbessern und Bandbreite zu sparen. Anstatt Rohdaten zur Verarbeitung an einen zentralen Cloud-Server zu senden, werden beim Edge-Computing die Berechnungen lokal an oder in der Nähe der Datenquelle durchgeführt. Dieser "Rand" kann alles sein, von einem Smartphone oder einem IoT-Sensor bis hin zu einem lokalen Server in einer Fabrikhalle. Dieser Ansatz ist von grundlegender Bedeutung, um die niedrigen Latenzzeiten zu erreichen, die für viele moderne KI-Anwendungen erforderlich sind.

Edge Computing im Vergleich zu verwandten Konzepten

Es ist wichtig, Edge Computing von anderen, eng verwandten Begriffen zu unterscheiden:

  • Edge AI: Dies ist eine spezielle Anwendung des Edge Computing. Während sich Edge Computing auf die allgemeine Praxis bezieht, jede Art von Berechnung an den Rand des Netzwerks zu verlagern, beinhaltet Edge AI speziell die Ausführung von maschinellen Lernmodellen und KI-Workloads direkt auf Edge-Geräten. Edge AI ist eine Form des Edge Computing, aber nicht jedes Edge Computing beinhaltet AI.
  • Cloud Computing: Cloud Computing stützt sich auf große, zentralisierte Rechenzentren, um leistungsstarke Berechnungen durchzuführen und große Datenmengen zu speichern. Edge Computing ist dezentralisiert. Beide schließen sich nicht gegenseitig aus, sondern werden oft in einem Hybridmodell zusammen verwendet. Ein Edge-Gerät kann die anfängliche Datenverarbeitung und Echtzeit-Inferenz durchführen, während weniger zeitkritische Daten zur weiteren Analyse, zum Modelltraining oder zur langfristigen Speicherung an die Cloud gesendet werden.
  • Fog Computing: Fog Computing wird oft synonym mit Edge Computing verwendet, stellt aber eine etwas andere Architektur dar, bei der ein "Fog Node" oder IoT-Gateway zwischen den Edge-Geräten und der Cloud sitzt. Er fungiert als Zwischenschicht und verarbeitet Daten von mehreren Edge-Geräten, bevor sie die Cloud erreichen, wie vom OpenFog-Konsortium beschrieben.

Warum Edge Computing für KI so wichtig ist

Die Verlagerung der KI-Verarbeitung in die Randbereiche bietet mehrere wesentliche Vorteile, die für moderne Anwendungen entscheidend sind:

  • Geringe Latenzzeit: Bei Anwendungen wie autonomen Fahrzeugen und der Robotik müssen Entscheidungen innerhalb von Millisekunden getroffen werden. Das Warten auf Daten, die zu einem Cloud-Server und wieder zurück übertragen werden, ist oft zu langsam. Edge Computing ermöglicht eine sofortige Verarbeitung auf dem Gerät.
  • Bandbreiteneffizienz: Das kontinuierliche Streaming hochauflösender Videos von Tausenden von Sicherheitskameras in die Cloud würde immense Netzwerkbandbreite verbrauchen. Durch die Analyse von Videos am Rande der Anlage müssen nur wichtige Ereignisse oder Metadaten übertragen werden, was die Bandbreitennutzung und die Kosten drastisch reduziert.
  • Erhöhter Datenschutz und Sicherheit: Die Verarbeitung sensibler Daten, wie Gesichtserkennungsdaten oder medizinische Bildanalysen, auf einem lokalen Gerät verbessert den Datenschutz, da die Daten nicht über das Internet verbreitet werden.
  • Betriebszuverlässigkeit: Edge-Geräte können unabhängig von einer ständigen Internetverbindung arbeiten. Dies ist für das industrielle IoT an abgelegenen Standorten von entscheidender Bedeutung, z. B. für die KI in der Landwirtschaft oder auf Offshore-Ölplattformen, wo die Konnektivität unzuverlässig sein kann.

Anwendungen in der realen Welt

Edge Computing verändert die Industrie, indem es schnellere und zuverlässigere KI ermöglicht.

  1. Intelligente Fertigung: In einer Fabrikumgebung können Kameras, die mit Computer-Vision-Modellen wie Ultralytics YOLO11 ausgestattet sind, Qualitätskontrollen in Echtzeit direkt am Fließband durchführen. Ein Edge-Gerät verarbeitet das Videomaterial, um Defekte sofort zu erkennen, so dass ein sofortiges Eingreifen möglich ist, ohne dass das Bildmaterial an die Cloud gesendet werden muss. Dies ist eine Kernkomponente moderner intelligenter Fertigungslösungen.
  2. Autonome Systeme: Selbstfahrende Autos sind ein Paradebeispiel für Edge Computing in Aktion. Sie sind mit leistungsstarken Bordcomputern wie NVIDIA Jetson-Plattformen ausgestattet, die Daten von einer Vielzahl von Sensoren in Echtzeit verarbeiten, um zu navigieren, Hindernissen auszuweichen und auf veränderte Straßenbedingungen zu reagieren. Würde man sich bei diesen kritischen Funktionen auf die Cloud verlassen, käme es zu lebensbedrohlichen Verzögerungen.

Hardware und Software für The Edge

Die effektive Implementierung von Edge Computing erfordert eine Kombination aus spezialisierter Hardware und optimierter Software.

  • Hardware: Edge-Geräte reichen von stromsparenden Mikrocontrollern bis hin zu leistungsstärkeren Systemen. Dazu gehören Einplatinencomputer wie der Raspberry Pi, mobile Geräte und spezielle KI-Beschleuniger wie Google Edge TPUs und andere GPUs.
  • Software: KI-Modelle, die an der Grenze eingesetzt werden, müssen hocheffizient sein. Dies beinhaltet oft Techniken wie Modellquantisierung und Modellbeschneidung, um ihre Größe und Rechenanforderungen zu reduzieren. Optimierte Inferenz-Engines wie TensorRT, OpenVINO und Laufzeiten für Formate wie ONNX werden verwendet, um die Leistung zu maximieren. Darüber hinaus werden Tools wie Docker für die Containerisierung verwendet, was die Bereitstellung und Verwaltung von Modellen in einer Flotte von verteilten Edge-Geräten vereinfacht.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert