Entdecke, wie Echtzeit-Inferenz mit Ultralytics YOLO sofortige Vorhersagen für KI-Anwendungen wie autonomes Fahren und Sicherheitssysteme ermöglicht.
Echtzeit-Inferenz bezieht sich auf den Prozess, bei dem ein trainiertes Modell für maschinelles Lernen (ML) sofort Vorhersagen oder Entscheidungen trifft, sobald neue Daten eintreffen. Im Gegensatz zur Batch-Inferenz, bei der Daten in Gruppen verarbeitet werden, die im Laufe der Zeit gesammelt werden, legt die Echtzeit-Inferenz den Schwerpunkt auf geringe Latenzzeiten und sofortige Reaktionen. Diese Fähigkeit ist wichtig für Anwendungen, die sofortige Rückmeldungen oder Maßnahmen auf der Grundlage von Live-Datenströmen erfordern, damit Systeme dynamisch auf sich ändernde Bedingungen reagieren können, was den Prinzipien des Echtzeit-Computings entspricht.
In der Praxis bedeutet Echtzeit-Inferenz, dass ein ML-Modell, wie z. B. ein Ultralytics YOLO Modell für Computer Vision (CV), so einzusetzen, dass es einzelne Dateneingaben (z. B. Videobilder oder Sensormesswerte) analysieren und mit minimaler Verzögerung Ergebnisse liefern kann. Die wichtigste Leistungskennzahl ist die Inferenzlatenz, d. h. die Zeit, die vom Erhalt einer Eingabe bis zur Erstellung einer Vorhersage vergeht. Um eine niedrige Latenzzeit zu erreichen, sind oft mehrere Strategien erforderlich, darunter die Optimierung des Modells selbst und der Einsatz spezieller Hard- und Software.
Der Hauptunterschied liegt in der Art der Datenverarbeitung und den damit verbundenen Latenzanforderungen:
Echtzeit-Inferenz ist die Grundlage für viele moderne Anwendungen der Künstlichen Intelligenz (KI), bei denen eine sofortige Entscheidungsfindung wichtig ist:
Damit Modelle für Echtzeitanwendungen schnell genug laufen, müssen sie oft erheblich optimiert werden:
Modelle wie Ultralytics YOLO11 wurden im Hinblick auf Effizienz und Genauigkeit entwickelt und eignen sich daher gut für die Objekterkennung in Echtzeit. Plattformen wie Ultralytics HUB bieten Tools zum Trainieren, Optimieren (z. B. Export nach ONNX oder TensorRT ) und den Einsatz von Modellen und erleichtern so die Implementierung von Echtzeit-Inferenzlösungen für verschiedene Einsatzoptionen.