Sözlük

TensorRT

NVIDIA GPU'larda daha hızlı ve verimli çıkarım için TensorRT ile derin öğrenme modellerini optimize edin. YOLO ve yapay zeka uygulamaları ile gerçek zamanlı performans elde edin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

TensorRT , yüksek performanslı bir derin öğrenme çıkarım iyileştiricisi ve çalışma zamanı kütüphanesidir. NVIDIA. Çeşitli optimizasyon teknikleri uygulayarak NVIDIA Grafik İşleme Birimleri (GPU'lar) üzerindeki derin öğrenme modellerini hızlandırır. TensorRT 'nin birincil amacı, üretim ortamlarında dağıtılan modeller için mümkün olan en düşük çıkarım gecikmesini ve en yüksek verimi elde etmektir, bu da onu gerçek zamanlı çıkarım uygulamaları için çok önemli hale getirir.

TensorRT Nasıl Çalışır?

TensorRT , genellikle aşağıdaki gibi çerçevelerden dışa aktarılan eğitimli bir sinir ağını alır PyTorch veya TensorFlowve hedef NVIDIA GPU için özel olarak optimize eder. Temel optimizasyon adımları şunları içerir:

  • Grafik Optimizasyonu: Daha verimli bir hesaplama grafiği oluşturmak için katmanları birleştirmek ve gereksiz işlemleri ortadan kaldırmak.
  • Hassasiyet Kalibrasyonu: Model ağırlıklarının sayısal hassasiyetini (örneğin FP32'den FP16 veya INT8'e) doğruluk üzerinde minimum etkiyle azaltarak hesaplamaları önemli ölçüde hızlandırır ve bellek kullanımını azaltır.
  • Çekirdek Otomatik Ayarlama: Belirli model katmanları ve hedef GPU için NVIDIA'nın kütüphanelerinden(cuDNN, cuBLAS) önceden uygulanmış en iyi algoritmaların (çekirdeklerin) seçilmesi.
  • Dinamik Tensor Belleği: Tensörler için ayrılan belleği yeniden kullanarak bellek ayak izini en aza indirir.

Bu optimizasyonlar, belirli model ve donanım için uyarlanmış yüksek verimli bir çalışma zamanı çıkarım motoru ile sonuçlanır.

Ultralytics ile Alaka Düzeyi

TensorRT , Ultralytics YOLO modelleri için önemli bir dağıtım hedefidir. Kullanıcılar, NVIDIA Jetson gibi uç cihazlar da dahil olmak üzere NVIDIA donanımlarında önemli hız artışları elde etmek için eğitilmiş Ultralytics YOLO modellerini TensorRT formatına aktarabilir. Bu, çeşitli alanlarda yüksek performanslı uygulamalara olanak tanır. YOLOv5 vs RT-DETR karşılaştırması gibi model karşılaştırma sayfaları, genellikle TensorRT optimizasyonu kullanılarak elde edilen çıkarım hızlarını gösterir. Ultralytics , NVIDIA Jetson'da DeepStream kılavuzu gibi NVIDIA platformlarıyla entegrasyon için kılavuzlar da sağlar.

Gerçek Dünya Uygulamaları

TensorRT , NVIDIA donanımında hızlı ve verimli çıkarımın kritik olduğu durumlarda yaygın olarak kullanılmaktadır:

  1. Otonom Araçlar: Sürücüsüz araçlar, büyük miktarda sensör verisinin gerçek zamanlı olarak işlenmesine dayanır. TensorRT , nesne algılama, segmentasyon ve yol planlama modellerini hızlandırarak güvenlik için gerekli olan hızlı karar verme sürecini mümkün kılar. Bu, otomotiv çözümlerinde yapay zekanın temel bir bileşenidir.
  2. Video Analitiği ve Akıllı Şehirler: Trafik izleme, kalabalık analizi veya güvenlik gözetimi gibi görevler için çok sayıda yüksek çözünürlüklü video akışının işlenmesi muazzam bir hesaplama gücü gerektirir. TensorRT aşağıdaki gibi modelleri optimize eder Ultralytics YOLOv8 Bu zorlu iş yüklerini sunucularda veya uç cihazlarda verimli bir şekilde ele almak ve akıllı şehirler için yapay zeka çözümlerine güç sağlamak için.

TensorRT ve Benzer Terimler

  • ONNX (Açık Sinir Ağı Değişimi): ONNX , derin öğrenme modellerini temsil etmek için açık bir formattır. TensorRT , ONNX formatından modelleri içe aktarabilirken, ONNX 'in kendisi donanımdan bağımsızdır, oysa TensorRT özellikle NVIDIA GPU'lar için bir optimize edici ve çalışma zamanıdır. Ultralytics modelleri ONNX'e aktarılabilir.
  • OpenVINO: TensorRT'ye benzer şekilde, OpenVINO bir çıkarım optimizasyon araç setidir, ancak Intel tarafından geliştirilmiştir ve öncelikle Intel donanımını (CPU'lar, iGPU'lar, VPU'lar) hedefler. Ultralytics OpenVINO entegrasyonu hakkında daha fazla bilgi edinin.
  • PyTorch / TensorFlow: Bunlar öncelikle modelleri eğitmek için kullanılan derin öğrenme çerçeveleridir. TensorRT , bu çerçeveler kullanılarak eğitildikten sonra modelleri optimize ederek verimli model dağıtımı için hazırlar.
Tümünü okuyun