重温德米特里-帕斯图申科夫(Dmitriy Pastushenkov)和阿德里安-博古谢夫斯基(Adrian Boguszewski)的YOLO Vision 2024 演讲,了解如何利用Intel OpenVino 优化YOLO 模型,并在Intel 的人工智能 PC 上运行实时推理。
YOLO Ultralytics 的年度混合活动Vision 2024(YV24)汇聚了来自世界各地的人工智能爱好者、开发人员和专家,共同探讨计算机视觉领域的最新创新。YV24是讨论新突破的绝佳机会和平台。人工智能行业的主要参与者在会上介绍了他们的最新创新成果。其中, 参加了此次活动,并发表了主题演讲,介绍了其全新的突破性人工智能 PC 和 与 等IntelIntel OpenVino Ultralytics YOLO 模型的集成。 Ultralytics YOLO11.
此次讲座由软件布道师Adrian Boguszewski 和Dmitriy Pastushenkov 主讲,前者是 LandCover.ai数据集的共同作者,负责向开发人员介绍Intel的OpenVINO 工具包,后者是人工智能 PC 布道师,在工业自动化和人工智能领域拥有 20 多年的经验。活动期间,Adrian 分享了他的兴奋之情,他说:"今天的活动非常棒,不仅因为Ultralytics 交付了新版本的YOLO ,还因为我们能够展示这个运行在我们新硬件上的新模型,以及新版本的OpenVINO 。"
在本文中,我们将介绍Intel在 YV24 上的演讲要点,深入探讨其人工智能 PC、Intel Core Ultra 200V 系列的来龙去脉,以及它们如何使用OpenVINO 工具包与Ultralytics YOLO 模型集成。让我们开始吧!
德米特里在主题演讲中首先深入探讨了传统人工智能和生成式人工智能之间的主要区别。重点围绕这些技术及其用例在 2024 年将如何发展。计算机视觉和自然语言处理等传统人工智能技术对于姿势估计、物体检测和语音识别等任务至关重要。而生成式人工智能则代表了人工智能技术的新潮流,涉及聊天机器人、文本到图像生成、代码编写,甚至文本到视频等应用。
德米特里指出了两者在规模上的差异。他解释说,传统人工智能模型由数百万个参数组成,而生成式人工智能模型的运行规模要大得多。生成式人工智能模型通常涉及数十亿甚至数万亿个参数,因此对计算的要求要高得多。
Dmitriy 介绍了Intel AI PC,这是一款全新的硬件解决方案,旨在应对高效运行传统和生成式人工智能模型所带来的日益严峻的挑战。Intel AI PC 是一款功能强大且节能的机器。它能够在本地运行各种人工智能模型,而无需基于云的处理。
本地处理有助于保护敏感数据的隐私。当人工智能模型可以独立于互联网连接运行时,各行业对隐私和安全的道德担忧就会得到解答。
Intel AI PC 的驱动力是Intel Core Ultra 200V 系列处理器。该处理器集成了三个关键组件:中央处理器(CPU )、图形处理器(GPU )和神经处理单元(NPU)。它们在处理不同类型的人工智能工作负载时各司其职。CPU 适用于需要快速响应的小型、低延迟任务,而GPU 则针对运行人工智能模型等高吞吐量操作进行了优化。NPU 专为提高能效而设计,非常适合长时间运行的任务,如使用以下模型进行实时物体检测YOLO11.
CPU 可提供高达 5 TOPS(每秒万亿次运算)的运算量,GPU 可提供高达 67 TOPS 的运算量,而 NPU 则为持续运行人工智能任务提供了一种高能效的方式,而不会耗尽系统资源。
Intel Core Ultra 200V 系列处理器将所有三个人工智能引擎(NPU、CPU 和GPU )集成到一个小型芯片中。它的设计非常适合笔记本电脑等小型设备,而且不会降低性能。
处理器还内置 RAM,无需单独的显卡。这有助于降低功耗,使设备保持紧凑。德米特里还强调了处理器的灵活性。用户可以根据任务决定是在CPU 、GPU 还是 NPU 上运行人工智能模型。例如,使用YOLO11 模型进行物体检测可以在其中任何一个引擎上运行,而更复杂的任务(如文本到图像的生成)则可以同时使用GPU 和 NPU,以获得更好的性能。
在演讲过程中,德米特里从口袋里掏出了芯片,让大家清楚地感受到,尽管它能够处理如此先进的人工智能任务,但它的体积确实非常小。这是一种有趣而令人难忘的方式,展示了Intel 如何将强大的人工智能功能带到更便携、更实用的设备中。
在展示了Intel 的最新硬件进展之后,德米特里接着介绍了Intel 支持人工智能的软件栈。他介绍了OpenVINO ,Intel的开源框架,该框架旨在优化人工智能模型,并在不同设备上高效部署人工智能模型。OpenVINO 不仅支持视觉任务,还支持用于自然语言处理、音频处理、变压器等的人工智能模型。
OpenVINO 与流行的平台兼容,如 PyTorch、TensorFlow和 ONNX等流行平台兼容,开发人员可以轻松地将其纳入工作流程。他提到的一个关键功能是量化。量化可以压缩模型权重以减小其大小,这样大型模型就可以在本地设备上流畅运行,而不需要云。OpenVINO 可跨多个框架运行,可在CPU 、GPU 、NPU、FPGA 甚至 ARM 设备上运行,并支持 Windows、Linux 和macOS。Dmitriy 还向听众介绍了如何轻松上手OpenVINO 。
在讲座的第二部分,麦克风交给了 Adrian,他解释了Ultralytics YOLO 模型与Intel的OpenVINO 工具包之间的无缝集成,简化了YOLO 模型的部署过程。他逐步解释了如何使用Ultralytics Python 软件包快速、直接地将YOLO 模型导出为OpenVINO 格式。这种集成使开发人员更容易针对Intel 硬件优化他们的模型,并最大限度地利用这两个平台。
Adrian 演示了Ultralytics YOLO 模型训练完成后,用户可以使用几个简单的命令行标志将其导出。例如,用户可以指定是以浮点版本导出模型,以获得最高精度,还是以量化版本导出模型,以提高速度和效率。他还强调了开发人员如何通过代码直接管理这一过程,使用 INT8 量化等选项来提高性能,同时又不会牺牲太多精度。
将所有这些理论付诸实践,Intel 团队展示了物体检测的实时演示。 YOLO11Intel AI PC 上进行了实时演示。Adrian 展示了系统如何在不同处理器上处理模型,在CPU 上使用浮点模型实现了每秒 36 帧 (FPS),在集成的GPU 上实现了超过 100 帧 (FPS),在 INT8 量化版本上实现了 70 帧 (FPS)。他们展示了Intel AI PC 能够多么高效地管理复杂的人工智能任务。
他还指出,该系统可以并行运行模型,使用CPU 、GPU 和 NPU 一起完成所有数据或视频帧都可以预先获得的任务。这在处理视频等重负荷时非常有用。系统可以在不同的处理器上分担工作负荷,从而提高速度和效率。
最后,艾德里安提到,用户可以在家里尝试演示,包括人数统计和智能排队管理等解决方案。随后,他展示了一个额外的演示,用户可以输入提示,在GPU 上实时生成梦幻般的图像。该演示展示了Intel AI PC 的多功能性,既可用于传统的人工智能任务,也可用于创造性的生成式人工智能项目。
在这次活动中,Intel 设立了一个展台,展示了使用YOLO11 的实时物体检测演示,该演示在Intel AI PC 上运行。与会者看到了该模型在OpenVINO 上优化并部署在Intel Core Ultra 200V 处理器上的运行情况。
在Intel 展台,德米特里分享道:"这是我第一次参加YOLO Vision 展会,很高兴来到马德里。我们正在展示来自Ultralytics 的YOLO11 模型,它运行在Intel Core Ultra 200V 处理器上。它显示出卓越的性能,我们使用OpenVINO 来优化和部署模型。与Ultralytics 合作并在最新的Intel 硬件上运行模型非常容易,利用了CPU 、GPU 和 NPU"。展台上还有一些有趣的赠品,例如供与会者带回家的 T 恤衫和笔记本电脑。
Intel Intel Core Ultra 200V 系列处理器,展示了 工具包如何优化人工智能模型,如 。这种集成使用户能够直接在其设备上运行 模型,为物体检测等计算机视觉任务提供出色的性能。其主要优势在于用户无需依赖云服务。OpenVINO Ultralytics YOLO11 YOLO
开发人员和人工智能爱好者可以毫不费力地运行和微调YOLO 模型,充分利用 CPU、GPU 和 NPU 等硬件进行实时应用。Intel OpenVINO 工具包与Ultralytics YOLO 模型相结合,为将先进的人工智能功能直接引入个人设备开辟了新的可能性,使其成为渴望推动各行业人工智能创新的开发人员的理想选择。
让我们合作创新!访问我们的GitHub 存储库,了解我们的贡献并与我们的社区互动。了解我们如何利用人工智能为制造业和医疗保健业带来影响。