Reformer modelini keşfedin: LSH dikkati ve tersine çevrilebilir katmanlarla uzun diziler için optimize edilmiş çığır açan bir transformatör mimarisi.
Reformer, geleneksel Transformer 'lar için önemli hesaplama ve bellek zorlukları oluşturan çok uzun dizileri işlemek için özel olarak tasarlanmış, standart Transformer mimarisinin verimli bir çeşididir. Google Research'teki araştırmacılar tarafından tanıtılan Reformer, bellek kullanımını ve hesaplama maliyetini büyük ölçüde azaltmak için çeşitli yenilikler içeriyor ve standart Transformer'ların tipik sınırlarının çok ötesinde, yüz binlerce hatta milyonlarca öğeye sahip dizileri işlemeyi mümkün kılıyor. Bu verimlilik, Transformer benzeri modellerin tüm kitapların, piksel dizileri olarak işlenen yüksek çözünürlüklü görüntülerin veya uzun müzik parçalarının işlenmesi gibi kapsamlı bağlam içeren görevlere uygulanması için olanaklar sunuyor.
Reformer, verimliliğini öncelikle iki temel teknikle elde eder:
Her ikisi de dikkat mekanizmasına dayanmakla birlikte, Reformer önemli ölçüde farklılık göstermektedir:
Reformer'ın uzun dizileri işleme yeteneği, onu Yapay Zeka'daki (AI) çeşitli görevler için uygun hale getirir:
gibi modeller olsa da Ultralytics YOLO genellikle Evrişimsel Sinir Ağları (CNN'ler) veya aşağıdaki gibi hibrit mimariler kullanarak görüntülerde etkili nesne tespitine odaklanır RT-DETRReformer'da keşfedilen hesaplama ve bellek verimliliği ilkeleri, Derin Öğrenme (DL) alanı genelinde geçerlidir. Bu tür ilerlemelerin anlaşılması, daha yetenekli ve erişilebilir YZ modellerine yönelik inovasyonun teşvik edilmesine yardımcı olur; bu hedef, YZ geliştirme ve dağıtımını basitleştirmeyi amaçlayan Ultralytics HUB gibi platformlar tarafından paylaşılmaktadır. Daha fazla ayrıntı için orijinal Reformer araştırma makalesine bakın. YOLO11 ve YOLOv10 gibi model verimliliklerinin karşılaştırılması, performans ve kaynak kullanımını dengelemek için devam eden çabayı vurgulamaktadır.