Узнайте, как TensorRT модели глубокого обучения для NVIDIA . Научитесь экспортировать Ultralytics в TensorRT быстрого вывода с низкой задержкой уже сегодня.
TensorRT высокопроизводительный набор средств разработки программного обеспечения (SDK) для глубокого обучения, разработанный компанией NVIDIA. Он предназначен для оптимизации моделей нейронных сетей для развертывания, обеспечивая низкую задержку вывода и высокую пропускную способность для приложений глубокого обучения. Действуя как компилятор оптимизации, TensorRT обученные сети из популярных фреймворков , таких как PyTorch и TensorFlow перестраивает их для эффективного выполнения награфических процессорах NVIDIA . Эта возможность имеет решающее значение для запуска сложных моделей искусственного интеллекта в производственных средах, где скорость и эффективность имеют первостепенное значение.
Основная функция TensorRT в преобразовании обученной нейронной сети в оптимизированный «движок», специально настроенный для целевого оборудования. Это достигается с помощью нескольких передовых технологий:
Благодаря своей способности обрабатывать огромные объемы данных с минимальной задержкой, TensorRT широко TensorRT в отраслях, основанных на компьютерном зрении и сложных задачах искусственного интеллекта, где время имеет решающее значение.
Интеграция TensorRT в ваш рабочий процесс - это простое решение с помощью современных инструментов искусственного интеллекта. Сайт ultralytics Пакет
предоставляет удобный способ преобразования стандартных PyTorch в TensorRT . Это позволяет пользователям использовать
современную архитектуру Ultralytics YOLO26 с
аппаратным ускорением NVIDIA . Для команд, которые хотят управлять своими наборами данных и конвейерами обучения перед экспортом, Платформа Ultralytics предлагает комплексную среду для подготовки
моделей к такому высокопроизводительному развертыванию.
Следующий пример демонстрирует, как экспортировать модель YOLO26 в файл TensorRT (.engine) и
использовать его для выводы в режиме реального времени:
from ultralytics import YOLO
# Load the latest stable YOLO26 model (nano size)
model = YOLO("yolo26n.pt")
# Export the model to TensorRT format (creates 'yolo26n.engine')
# This step optimizes the computational graph for your specific GPU
model.export(format="engine")
# Load the optimized TensorRT engine for high-speed inference
trt_model = YOLO("yolo26n.engine")
# Run inference on an image source
results = trt_model("https://ultralytics.com/images/bus.jpg")
Важно отличать TensorRT других терминов, часто встречающихся в сфере развертывания моделей:
Для разработчиков, стремящихся максимально повысить производительность своих ИИ-агентов или систем технического зрения, понимание перехода от среды обучения к оптимизированной среде выполнения, такой как TensorRT ключевым шагом в профессиональном MLOps.