术语表

GPU (图形处理器)

了解 GPU 如何通过加速深度学习、优化工作流程和支持现实世界的应用,彻底改变人工智能和机器学习。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

图形处理器GPU)是一种专门的电子电路,设计用于快速操作和改变内存,以加速创建图像并输出到显示设备。GPU 最初是为视频游戏和专业设计应用中的图形渲染而开发的,现在已成为人工智能(AI)和机器学习(ML)领域的基本组件。GPU 的架构拥有数千个处理内核,可以同时进行多项计算,因此在进行深度学习算法所需的复杂数学运算时异常高效,并可实现快速实时推理。您可以探索 GPU的历史,了解其演变过程。

人工智能和机器学习的重要性

GPU 的并行处理能力是近年来人工智能进步的主要推动力。训练深度神经网络涉及大量数据和计算密集型操作,如矩阵乘法。与传统的中央处理器(CPU)相比,GPU 擅长这些任务,大大缩短了训练复杂模型所需的时间。这种加速度使研究人员和开发人员能够更快地进行迭代,使用更大的数据集进行实验,并以更高的精度和速度解决物体检测图像分割等问题。例如,Ultralytics YOLO 模型在很大程度上依赖于 GPU 来实现实时视觉任务的高性能。通常通过云计算平台或专用硬件访问强大的 GPU,这对现代人工智能开发至关重要。

与 CPU 和 TPU 的主要区别

虽然 GPU、CPU 和Tensor 处理单元(TPU)经常在一个系统中协同工作,但它们有着不同的架构和最佳使用案例:

  • 中央处理器(CPU ):CPU 专为通用计算而设计,擅长处理顺序任务和管理系统操作。它们拥有几个功能强大的内核,经过优化,可在各种工作负载上实现低延迟。查看CPU 与GPU 的比较。
  • 图形处理器(GPU ):GPU 针对并行处理进行了优化,拥有数千个更简单的内核,可同时处理多项任务。这使它们成为深度学习、图形渲染和高性能计算(HPC)中常见的数据并行计算的理想选择。主要提供商包括 NVIDIAAMD
  • TPU (Tensor 处理单元):TPUGoogle开发,是专门设计用于加速 ML 工作负载的特定应用集成电路 (ASIC),尤其是那些使用 TensorFlow框架的工作负载。它们为特定的tensor 运算提供高性能,但通用性可能不如 GPU。更多详细信息,请访问Google 的TPU 页面

GPU 兼顾了并行任务的高性能和广泛的适用性,并有成熟的软件生态系统(如NVIDIA®)公司的 CUDAPyTorch.使用 Docker 等工具可以简化GPU 环境的设置;详情请查看Docker 快速入门指南

人工智能在现实世界中的应用

GPU 是许多尖端人工智能应用不可或缺的一部分:

  • 自动驾驶汽车:GPU 实时处理来自摄像头、激光雷达和雷达的大量数据流,为自动驾驶汽车中的人工智能提供感知、路径规划和决策功能。特斯拉等公司的自动驾驶系统在很大程度上依赖于 GPU
  • 医学图像分析:在医疗保健领域,GPU 可加速对核磁共振成像、CT 扫描和 X 射线等复杂医疗图像的分析,帮助放射科医生检测异常、分割组织并提高诊断准确性。这是医疗图像分析的一个关键领域,NVIDIA ™ Clara等平台可提供专业工具。

GPU 对于在边缘设备(如使用NVIDIA ®Jetson 平台的设备)上部署的模型的训练也至关重要。这些模型的训练通常在功能强大的 GPU 上进行,可能会使用Ultralytics HUB等平台来简化工作流程。

阅读全部