深圳Yolo 视觉
深圳
立即加入
词汇表

CPU

探索CPU 人工智能CPU 关键作用。学习如何优化数据预处理与后处理流程,并立即在边缘设备上运行Ultralytics 推理。

中央处理器(CPU)是计算机的核心组件,相当于其"大脑",负责解读并执行来自硬件和软件的指令。 在人工智能(AI)领域,CPU 在数据处理、系统协调及推理执行中发挥着基础性作用,尤其在对能效要求严苛的边缘设备上。尽管GPU等专用硬件常被用于深度学习模型的重负荷训练,CPU 整个机器学习(ML)流程中不可或缺的核心组件。

CPU在人工智能工作流中的作用

尽管GPU因在训练过程中具备强大的并行处理能力而备受推崇,但在计算机视觉(CV)生命周期的许多关键阶段CPU 主力军CPU 其架构通常基于x86(Intel、AMD)或ARM设计,专为顺序处理和复杂逻辑控制进行了优化。

  • 数据预处理:在神经网络开始学习之前,必须对数据进行准备。CPU在执行文件加载、数据清理以及利用库(如NumPy)进行复杂转换等任务时表现出色。 NumPyOpenCV
  • 边缘推理:在实际部署中,将模型运行在大型服务器上并非总是可行。 CPU支持在消费级硬件上高效部署模型, 例如在笔记本电脑或树莓派上运行Ultralytics
  • 后处理:模型输出原始概率后,CPU 执行最终逻辑处理,例如在目标检测中采用非最大抑制(NMS)技术,以过滤重复预测结果并优化最终输出。

CPU .GPU .TPU

理解硬件环境对优化机器学习运维(MLOps)至关重要。这些处理器在架构和理想应用场景方面存在显著差异。

  • CPU:专为多功能性和复杂逻辑设计。其配备若干强大核心,可顺序处理任务。最适用于数据增强、管道管理以及小批量数据的低延迟推理。
  • GPU 图形处理器) 最初用于图形处理,GPU拥有数千个小型核心,专为并行处理设计。 它们已成为模型训练的标准选择, 因为其执行矩阵乘法的速度远快于CPU。
  • Tensor 单元TPU )Google 专为tensor 开发的专用电路(ASIC)。 虽然在特定工作负载下效率极高,但缺乏CPU的通用灵活性。

实际应用

在成本、可用性和能耗优先于对海量原始吞吐量需求的应用场景中,CPU常是首选硬件。

  1. 智能安防摄像头: 在安防报警系统中,摄像头通常在本地处理视频流。CPU 物体检测模型能够识别人员或车辆,并在不向云端传输视频的情况下触发警报,从而节省带宽并保护用户隐私。
  2. 工业自动化:在工厂车间, 预测性维护系统利用CPU实时监测机械设备的传感器数据。这些系统通过分析振动或温度骤升现象,预判设备故障,确保制造自动化流程顺畅运行,且无需依赖GPU 。

CPU 上运行Ultralytics推理

开发人员常在CPU上测试模型,以验证其与无服务器计算环境或低功耗设备的兼容性。Ultralytics 可让您轻松定位CPU,确保应用程序无处不在地运行。

以下示例演示了如何加载轻量级模型,并在CPU进行推理:

from ultralytics import YOLO

# Load the lightweight YOLO26 nano model
# Smaller models are optimized for faster CPU execution
model = YOLO("yolo26n.pt")

# Run inference on an image, explicitly setting the device to 'cpu'
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")

# Print the detection results (bounding boxes)
print(results[0].boxes.xywh)

为进一步提升Intel 性能表现,开发者可将模型导出至 OpenVINO 格式,该格式针对x86架构专门优化了神经网络结构。在数据集管理和部署协调方面,Ultralytics 工具可简化从标注到边缘执行的工作流程。

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入