Sözlük

Reformcu

Reformer modelini keşfedin: LSH dikkati ve tersine çevrilebilir katmanlarla uzun diziler için optimize edilmiş çığır açan bir transformatör mimarisi.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Reformer, geleneksel Transformer 'lar için önemli hesaplama ve bellek zorlukları oluşturan çok uzun dizileri işlemek için özel olarak tasarlanmış, standart Transformer mimarisinin verimli bir çeşididir. Google Research'teki araştırmacılar tarafından tanıtılan Reformer, bellek kullanımını ve hesaplama maliyetini büyük ölçüde azaltmak için çeşitli yenilikler içeriyor ve standart Transformer'ların tipik sınırlarının çok ötesinde, yüz binlerce hatta milyonlarca öğeye sahip dizileri işlemeyi mümkün kılıyor. Bu verimlilik, Transformer benzeri modellerin tüm kitapların, piksel dizileri olarak işlenen yüksek çözünürlüklü görüntülerin veya uzun müzik parçalarının işlenmesi gibi kapsamlı bağlam içeren görevlere uygulanması için olanaklar sunuyor.

Reformer'in Temel Kavramları

Reformer, verimliliğini öncelikle iki temel teknikle elde eder:

  1. Yerelliğe Duyarlı Hashing (LSH) Dikkat: Standart Dönüştürücüler, her elemanın (token) diğer her elemana katıldığı tam bir kendi kendine dikkat mekanizması kullanır. Bunun hesaplama maliyeti, dizi uzunluğu ile kuadratik olarak artar. Reformer bunu, Yerelliğe Duyarlı Hashing'e dayalı bir yaklaşım tekniği olan LSH dikkati ile değiştirir. LSH, benzer simgeleri bir araya getirir ve dikkat yalnızca bu gruplar veya yakın gruplar içinde hesaplanır ve hesaplama karmaşıklığını ikinci dereceden doğrusala yakın bir değere düşürür.
  2. Tersinir Artık Katmanlar: Transformatörler birden fazla katman istifler ve eğitim sırasında her katmandan gelen aktivasyonlar tipik olarak geriye yayılma için bellekte saklanır. Bu, özellikle çok sayıda katman veya büyük aktivasyonlarda önemli miktarda bellek tüketir. Reformer, herhangi bir katmandaki aktivasyonların geriye doğru geçiş sırasında yalnızca bir sonraki katmanın aktivasyonları kullanılarak yeniden hesaplanmasına olanak tanıyan tersine çevrilebilir katmanlar kullanır. Bu, çoğu katman için aktivasyonların saklanması ihtiyacını ortadan kaldırarak eğitim sırasında bellek kullanımını büyük ölçüde azaltır.

Reformer vs. Standart Transformatör

Her ikisi de dikkat mekanizmasına dayanmakla birlikte, Reformer önemli ölçüde farklılık göstermektedir:

  • Dikkat: Standart Dönüştürücüler tam, hesaplama açısından pahalı dikkat kullanır. Reformer verimli LSH tabanlı yaklaşık dikkat kullanır.
  • Hafıza: Standart Transformatörler aktivasyonları depolamak için büyük bellek gerektirir. Reformer, model eğitimi sırasında bellek gereksinimlerini en aza indirmek için tersine çevrilebilir katmanlar kullanır.
  • Sıra Uzunluğu: Standart Dönüştürücüler tipik olarak birkaç bin jetonluk dizilerle sınırlıdır. Reformer çok daha uzun dizileri işleyebilir.
  • Kullanım Örneği: Standart Transformatörler orta derecede uzun dizilere sahip görevlerde mükemmeldir. Reformer, standart Transformatörlerin kullanılamadığı aşırı uzun diziler içeren görevler için özel olarak optimize edilmiştir. Hugging Face gibi platformlarda Transformer tabanlı çeşitli modelleri keşfedebilirsiniz.

Uygulamalar

Reformer'ın uzun dizileri işleme yeteneği, onu Yapay Zeka'daki (AI) çeşitli görevler için uygun hale getirir:

  • Uzun Belge İşleme: Kitapların tamamını özetlemek, uzun yasal veya teknik belgelere dayalı soruları yanıtlamak veya uzun metinler üzerinde duygu analizi yapmak gibi görevler daha anlaşılır hale gelir.
  • Genomik: Uzun DNA veya protein dizilerinin analiz edilmesi.
  • Zaman Serisi Analizi: Detaylı finansal piyasa trendleri veya uzun vadeli iklim modelleri gibi çok uzun zaman serisi verilerinin modellenmesi.
  • Üretken Modelleme: Pikselleri uzun bir dizi olarak ele alarak uzun tutarlı metin, müzik parçaları ve hatta yüksek çözünürlüklü görüntüler oluşturmak(Metin-Görüntü oluşturma).

gibi modeller olsa da Ultralytics YOLO genellikle Evrişimsel Sinir Ağları (CNN'ler) veya aşağıdaki gibi hibrit mimariler kullanarak görüntülerde etkili nesne tespitine odaklanır RT-DETRReformer'da keşfedilen hesaplama ve bellek verimliliği ilkeleri, Derin Öğrenme (DL) alanı genelinde geçerlidir. Bu tür ilerlemelerin anlaşılması, daha yetenekli ve erişilebilir YZ modellerine yönelik inovasyonun teşvik edilmesine yardımcı olur; bu hedef, YZ geliştirme ve dağıtımını basitleştirmeyi amaçlayan Ultralytics HUB gibi platformlar tarafından paylaşılmaktadır. Daha fazla ayrıntı için orijinal Reformer araştırma makalesine bakın. YOLO11 ve YOLOv10 gibi model verimliliklerinin karşılaştırılması, performans ve kaynak kullanımını dengelemek için devam eden çabayı vurgulamaktadır.

Tümünü okuyun