探索CPU 人工智能CPU 关键作用。学习如何优化数据预处理与后处理流程,并立即在边缘设备上运行Ultralytics 推理。
中央处理器(CPU)是计算机的核心组件,相当于其"大脑",负责解读并执行来自硬件和软件的指令。 在人工智能(AI)领域,CPU 在数据处理、系统协调及推理执行中发挥着基础性作用,尤其在对能效要求严苛的边缘设备上。尽管GPU等专用硬件常被用于深度学习模型的重负荷训练,CPU 整个机器学习(ML)流程中不可或缺的核心组件。
尽管GPU因在训练过程中具备强大的并行处理能力而备受推崇,但在计算机视觉(CV)生命周期的许多关键阶段CPU 主力军CPU 其架构通常基于x86(Intel、AMD)或ARM设计,专为顺序处理和复杂逻辑控制进行了优化。
理解硬件环境对优化机器学习运维(MLOps)至关重要。这些处理器在架构和理想应用场景方面存在显著差异。
在成本、可用性和能耗优先于对海量原始吞吐量需求的应用场景中,CPU常是首选硬件。
开发人员常在CPU上测试模型,以验证其与无服务器计算环境或低功耗设备的兼容性。Ultralytics 可让您轻松定位CPU,确保应用程序无处不在地运行。
以下示例演示了如何加载轻量级模型,并在CPU进行推理:
from ultralytics import YOLO
# Load the lightweight YOLO26 nano model
# Smaller models are optimized for faster CPU execution
model = YOLO("yolo26n.pt")
# Run inference on an image, explicitly setting the device to 'cpu'
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")
# Print the detection results (bounding boxes)
print(results[0].boxes.xywh)
为进一步提升Intel 性能表现,开发者可将模型导出至 OpenVINO 格式,该格式针对x86架构专门优化了神经网络结构。在数据集管理和部署协调方面,Ultralytics 工具可简化从标注到边缘执行的工作流程。