TensorRT NVIDIA için derin öğrenme modellerini nasıl TensorRT keşfedin. Düşük gecikme süresi ve yüksek hızlı çıkarım TensorRT Ultralytics TensorRT aktarmayı öğrenin.
TensorRT NVIDIA tarafından geliştirilen yüksek performanslı bir derin öğrenme çıkarım yazılım geliştirme kiti (SDK) TensorRT . Dağıtım için sinir ağı modellerini optimize etmek üzere tasarlanmış olup, derin öğrenme uygulamaları için düşük çıkarım gecikmesi ve yüksek verim TensorRT . Bir optimizasyon derleyicisi olarak çalışan TensorRT , PyTorch PyTorch ve TensorFlow çerçevelerden alınan eğitilmiş ağları yeniden yapılandırarak NVIDIA GPU'larda verimli bir şekilde çalışmasını sağlar. Bu özellik, hız ve verimliliğin önemli olduğu üretim ortamlarında karmaşık AI modellerini çalıştırmak için çok önemlidir.
TensorRT temel işlevi TensorRT eğitilmiş bir sinir ağını hedef donanım için özel olarak ayarlanmış optimize edilmiş bir "motor"a TensorRT . Bunu birkaç gelişmiş teknikle başarır:
TensorRT , büyük miktarda veriyi minimum gecikmeyle işleme yeteneği sayesinde, zamanlamanın kritik olduğu bilgisayar görme ve karmaşık AI görevlerine dayanan sektörlerde yaygın olarak TensorRT . .
Modern yapay zeka araçlarıyla TensorRT 'yi iş akışınıza entegre etmek çok kolay. TensorRT ultralytics paket
standart PyTorch TensorRT dönüştürmek için sorunsuz bir yöntem sunar. Bu, kullanıcıların
en son teknoloji mimarisinden yararlanmasını sağlar. Ultralytics YOLO26 NVIDIA
donanım hızlandırması ile. Verilerini ve eğitim süreçlerini dışa aktarmadan önce yönetmek isteyen ekipler için, Ultralytics Platformu bu tür yüksek performanslı dağıtımlar için modeller hazırlamak üzere kapsamlı bir ortam sunar.
Aşağıdaki örnek, bir YOLO26 modelini bir TensorRT dosyasına nasıl dışa aktaracağınızı gösterir (.engine) ve
bunu gerçek zamanlı çıkarım:
from ultralytics import YOLO
# Load the latest stable YOLO26 model (nano size)
model = YOLO("yolo26n.pt")
# Export the model to TensorRT format (creates 'yolo26n.engine')
# This step optimizes the computational graph for your specific GPU
model.export(format="engine")
# Load the optimized TensorRT engine for high-speed inference
trt_model = YOLO("yolo26n.engine")
# Run inference on an image source
results = trt_model("https://ultralytics.com/images/bus.jpg")
TensorRT , model dağıtım alanında sıklıkla duyulan diğer TensorRT ayırmak önemlidir: - Model dağıtımı: Modelin bir cihazda çalıştırılması.
AI ajanlarının veya görme sistemlerinin performansını en üst düzeye çıkarmak isteyen geliştiriciler için, eğitim çerçevesinden TensorRT gibi optimize edilmiş bir çalışma zamanına geçişi anlamak, profesyonel MLOps'ta önemli bir TensorRT . MLOps'ta