绿色检查
链接复制到剪贴板

导出和优化Ultralytics YOLOv8 ,以便对其进行推理Intel OpenVINO

使用OpenVINO 优化您的Ultralytics YOLOv8 模型以进行推理。请按照我们的指南将PyTorch 模型转换为ONNX ,并针对实时应用对其进行优化。

在本篇博文中,我们将介绍如何使用 导出和优化预训练或自定义训练的 Ultralytics YOLOv8 OpenVINO模型进行 推理。如果您使用的是基于Intel 的系统,无论是CPU 还是GPU ,本指南将告诉您如何以最小的代价大幅提高模型的速度。

为什么要使用OpenVINO 优化YOLOv8 ?

使用YOLOv8 优化您的模型,可以将推理任务的速度提高 3 倍,尤其是在运行 的情况下。 OpenVINO可将推理任务的速度提高 3 倍,尤其是在运行Intel CPU 的情况下。这种性能提升可为实时应用(从物体检测分割和安全系统)带来巨大的不同。

导出和优化YOLOv8 模型的步骤

了解流程

首先,让我们分解一下过程。我们将把PyTorch 模型转换为ONNX ,然后使用OpenVINO 对其进行优化。这个过程只需几个简单的步骤,可应用于各种模型和格式,包括TensorFlow,PyTorch, Caffe 和ONNX 。

导出模型

跳转到Ultralytics 文档,我们发现导出YOLOv8 模型需要使用Ultralytics 框架中的导出方法。该方法允许我们将模型从PyTorch 转换为 ONNX,最后再针对OpenVINO 进行优化。结果,利用Intel 的强大硬件,模型的运行速度明显加快。

安装依赖项

在运行导出脚本之前,您需要确保安装了所有必要的依赖包,其中包括 库、 和 。这包括Ultralytics 库、ONNX 和OpenVINO 。安装这些软件包的过程很简单,可通过 pip(Python 软件包安装程序)完成。

运行导出脚本

环境设置完成后,就可以运行导出脚本了。该脚本将把PyTorch 模型转换为ONNX ,然后再转换为OpenVINO 。该过程非常简单,只需调用一个函数即可完成导出。Ultralytics 框架可以轻松转换和优化您的模型,确保您以最少的麻烦获得最佳性能。

图 1.Nicolai Nielsen概述如何运行导出脚本。

性能比较

导出后,必须比较原始模型和优化模型的性能。通过对两个模型的推理时间进行基准测试,您可以清楚地看到性能的提升。通常情况下,与原始PyTorch 模型相比,OpenVINO 模型的推理时间会明显缩短。对于较大的模型,这种情况尤为明显。

实际应用和优势

利用OpenVINO 对YOLOv8 模型进行优化,尤其有利于需要实时处理的应用。下面是几个例子:

  • 安保系统:实时物体检测可立即向安保人员发出警报,提高安全性和响应速度。
  • 自动驾驶汽车:更快的推理速度可提高自动驾驶系统的响应速度,使其更加安全可靠。
  • 医疗保健:用于诊断工具的快速图像处理可提供更快的结果,及时进行干预,从而挽救生命。

通过实施这些优化,您不仅能提高性能,还能增强应用程序的可靠性和效率。这将带来更好的用户体验、更高的生产率和更具创新性的解决方案。

总结

将YOLOv8 模型导出并优化为OpenVINO 是利用Intel 硬件实现更快、更高效人工智能应用的有力方法。只需几个简单的步骤,您就可以改变模型的性能,并将其有效地应用到实际场景中。

请务必查看Ultralytics 上的更多教程和指南,以不断改进您的人工智能项目。访问我们的 GitHub 存储库,加入Ultralytics 社区,了解更多见解和更新。让我们一起创新!

请记住,优化模型不仅关乎速度,还关乎开启新的可能性,确保您的人工智能解决方案稳健、高效,并为未来做好准备。 

Facebook 徽标Twitter 徽标LinkedIn 徽标复制链接符号

在此类别中阅读更多内容

让我们共同打造人工智能的未来

开始您的未来机器学习之旅