Glossar

ONNX (Open Neural Network Exchange)

Entdecke, wie ONNX die Übertragbarkeit und Interoperabilität von KI-Modellen verbessert und den nahtlosen Einsatz von Ultralytics YOLO Modellen auf verschiedenen Plattformen ermöglicht.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Im Bereich der künstlichen Intelligenz und des maschinellen Lernens ist Interoperabilität der Schlüssel zur Nutzung der besten Tools und zum Einsatz von Modellen in unterschiedlichen Umgebungen. ONNX (Open Neural Network Exchange) ist ein offenes Format zur Darstellung von Modellen für maschinelles Lernen, das sicherstellt, dass KI-Entwickler nicht an ein einziges Framework gebunden sind und den Prozess der Übertragung von Modellen zwischen verschiedenen Tools rationalisieren können. Es bietet eine einheitliche Darstellung für Modelle, unabhängig davon, welches Framework für das Training verwendet wird, und macht es einfacher, diese Modelle in verschiedenen Inferenzmaschinen, Hardwareplattformen und Umgebungen einzusetzen.

Relevanz von ONNX

Die Bedeutung von ONNX liegt vor allem darin, dass es die Portabilität und Interoperabilität im KI-Ökosystem fördert. Durch die Definition eines gemeinsamen Satzes von Operatoren und eines Standardformats für Machine-Learning-Modelle ermöglicht ONNX , dass Modelle, die in Frameworks wie PyTorch oder TensorFlow trainiert wurden, einfach übertragen und mit verschiedenen Inferenzmaschinen wie TensorRT oder OpenVINO. Dies ist besonders für Entwickler von Vorteil, die Ultralytics YOLO Modelle verwenden, da der ONNX Export den Einsatz von Modellen auf verschiedenen Plattformen, von Cloud-Servern bis hin zu Edge-Geräten, vereinfacht. Ultralytics erleichtert den Export von YOLOv8 Modelle in das ONNX Format, so dass die Nutzer optimierte Inferenz-Engines für eine bessere Leistung und schnellere Echtzeit-Inferenz nutzen können.

Anwendungen von ONNX

ONNXDie Kompatibilität zwischen verschiedenen Frameworks macht es für zahlreiche KI-Anwendungen wertvoll. Zwei konkrete Beispiele sind:

  • Edge Deployment: Der Einsatz von KI-Modellen auf Edge-Geräten erfordert oft eine optimierte Leistung und Kompatibilität mit spezifischer Hardware. ONNX ermöglicht es Entwicklern, ein Modell mit einem High-Level-Framework wie PyTorch zu trainieren und es dann nach ONNX zu exportieren, um es effizient auf Edge-Geräten mit Inferenz-Engines wie TensorRT auf NVIDIA Jetson oder OpenVINO auf Intel Geräten. So wird sichergestellt, dass Anwendungen wie Smart Cameras oder Robotik mit Ultralytics YOLO Modellen effektiv und in Echtzeit Objekterkennungsaufgaben durchführen können.
  • Plattformübergreifende Inferenz: In Szenarien, in denen KI-Lösungen über verschiedene Betriebssysteme und Hardware hinweg eingesetzt werden müssen, bietet ONNX ein einheitliches Modellformat. Eine medizinische Bildanalyseanwendung kann zum Beispiel auf leistungsstarken Servern trainiert werden, muss aber auf weniger leistungsfähigen Rechnern in Krankenhäusern oder Kliniken Inferenzen durchführen. ONNX ermöglicht den nahtlosen Übergang und die Ausführung desselben Modells in verschiedenen Umgebungen und gewährleistet so eine konsistente und zuverlässige Leistung unabhängig von der Einsatzplattform.

Verwandte Konzepte

Zum Verständnis von ONNX gehört auch das Erkennen verwandter Konzepte, die bei der Modellentwicklung und -optimierung eine Rolle spielen:

  • Inference Engines: Dies sind Software-Bibliotheken, die Machine-Learning-Modelle auf bestimmter Hardware optimieren und ausführen. ONNX Modelle werden oft mit Inferenz-Engines wie TensorRT und OpenVINO verwendet, um die Geschwindigkeit und Effizienz der Inferenzen zu erhöhen.
  • Modell Export: Der Prozess der Konvertierung eines trainierten Modells aus seinem ursprünglichen Rahmenformat (z. B., PyTorch .pt Dateien) in das Format ONNX umzuwandeln. Ultralytics bietet unkomplizierte Werkzeuge für YOLO Modelle exportieren auf ONNX und andere Formate.
  • Interoperabilität der Frameworks: ONNX geht das Problem der Abhängigkeit von Frameworks an, indem es die Verwendung von Modellen in verschiedenen Frameworks ermöglicht. Obwohl jedes Framework seine Stärken hat, stellt ONNX sicher, dass Entwickler/innen das beste Tool für jede Phase des KI-Lebenszyklus ohne Kompatibilitätsbarrieren wählen können.

Durch den Einsatz von ONNX können Entwickler ihre KI-Workflows erheblich vereinfachen, die Komplexität der Bereitstellung reduzieren und sicherstellen, dass ihre Modelle vielseitig einsetzbar und auf einer Vielzahl von Anwendungen und Plattformen leistungsfähig sind.

Alles lesen