Entdecken Sie die wichtige Rolle der CPU der KI. Erfahren Sie, wie Sie die Datenvorverarbeitung und -nachbearbeitung optimieren und Ultralytics auf Edge-Geräten ausführen können.
Eine Zentraleinheit (CPU) ist die Hauptkomponente eines Computers, die als dessen „Gehirn“ fungiert und für die Interpretation und Ausführung von Befehlen aus Hardware und Software verantwortlich ist. Im Zusammenhang mit künstlicher Intelligenz (KI) spielt die CPU eine grundlegende Rolle bei der Datenverarbeitung, Systemorchestrierung und Ausführung von Schlussfolgerungen, insbesondere auf Edge-Geräten , bei denen Energieeffizienz von entscheidender Bedeutung ist. Während spezialisierte Hardware wie GPUs oft mit der schweren Aufgabe des Trainings von Deep-Learning-Modellen in Verbindung gebracht wird, CPU die CPU für die gesamte Machine-Learning-Pipeline (ML) unverzichtbar.
Obwohl GPUs für ihre massive Parallelität während des Trainings bekannt sind, CPU die CPU das Arbeitspferd für viele wesentliche Phasen des Computer Vision (CV) -Lebenszyklus. Ihre Architektur, die in der Regel auf x86- (Intel, AMD) oder ARM-Designs basiert, ist für sequentielle Verarbeitung und komplexe Logiksteuerung optimiert .
Das Verständnis der Hardware-Landschaft ist entscheidend für die Optimierung von Machine Learning Operations (MLOps). Diese Prozessoren unterscheiden sich erheblich in ihrer Architektur und ihren idealen Anwendungsfällen.
CPUs sind häufig die Hardware der Wahl für Anwendungen, bei denen Kosten, Verfügbarkeit und Energieverbrauch wichtiger sind als die Notwendigkeit eines massiven Durchsatzes.
Entwickler testen Modelle häufig auf CPUs, um die Kompatibilität mit serverlosen Computing-Umgebungen oder Geräten mit geringem Stromverbrauch zu überprüfen. Mit der Ultralytics können Sie die CPU einfach ansprechen und so sicherstellen, dass Ihre Anwendung überall läuft.
Das folgende Beispiel zeigt, wie ein leichtgewichtiges Modell geladen und die Inferenz speziell auf der CPU ausgeführt wird:
from ultralytics import YOLO
# Load the lightweight YOLO26 nano model
# Smaller models are optimized for faster CPU execution
model = YOLO("yolo26n.pt")
# Run inference on an image, explicitly setting the device to 'cpu'
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")
# Print the detection results (bounding boxes)
print(results[0].boxes.xywh)
Um die Leistung auf Intel weiter zu verbessern, können Entwickler ihre Modelle in das OpenVINO Format exportieren, das die neuronale Netzwerkstruktur speziell für die x86-Architektur optimiert. Für die Verwaltung von Datensätzen und die Orchestrierung dieser Bereitstellungen vereinfachen Tools wie die Ultralytics den Workflow von der Annotation bis zur Edge-Ausführung .