Sözlük

Transformatör

Transformer mimarilerinin yapay zekada nasıl devrim yaratarak NLP, bilgisayarla görme ve gelişmiş makine öğrenimi görevlerinde çığır açtığını keşfedin.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Transformatörler, yapay zeka (AI) ve makine öğrenimi (ML) alanlarında, özellikle de doğal dil işleme (NLP ) ve giderek artan bir şekilde bilgisayarla görme (CV) alanlarında önemli ilerlemeler kaydetmiş önemli bir sinir ağı mimarisini temsil etmektedir."Attention Is All You Need" adlı etkili makalede tanıtılan bu ağlar, metin veya zaman serileri gibi sıralı verileri kendi kendine dikkat adı verilen bir mekanizma kullanarak işler. Bu, modelin girdinin farklı bölümlerinin önemini dinamik olarak tartmasına ve Tekrarlayan Sinir Ağları (RNN'ler) gibi eski mimarilerin temel sınırlamalarının üstesinden gelmesine olanak tanır.

Transformatörler Nasıl Çalışır?

Transformers'ın temel yeniliği kendi kendine dikkat mekanizmasıdır. Girdiyi sırayla (birbiri ardına bir öğe) işleyen ve kaybolan gradyanlar gibi sorunlar nedeniyle uzun dizilerle mücadele edebilen RNN'lerin aksine, Transformers girdi dizisinin tüm parçalarını aynı anda değerlendirebilir. Bu paralel işleme özelliği, aşağıdaki gibi şirketlerin GPU 'ları gibi modern donanımlarda eğitimi önemli ölçüde hızlandırır NVIDIA.

Tipik Evrişimsel Sinir Ağları (CNN'ler) evrişim gerçekleştiren sabit boyutlu filtreler aracılığıyla yerel özelliklere odaklanırken, dikkat mekanizması Transformatörlerin tüm girdi boyunca uzun menzilli bağımlılıkları ve bağlamsal ilişkileri yakalamasına olanak tanır. Küresel bağlamı anlama becerisi, ister metin ister Görüntü Dönüştürücülerinde (ViT'ler) kullanılan görüntü yamaları olsun, karmaşık ilişkiler içeren görevler için çok önemlidir.

Uygunluk ve Etki

Transformatörler, bağlamı yakalamadaki ve uzun dizileri işlemedeki etkinlikleri nedeniyle birçok son teknoloji yapay zeka modelinin temeli haline gelmiştir. Paralelleştirilebilir yapıları, OpenAI tarafından geliştirilen GPT-3 ve GPT-4 gibi milyarlarca parametreye sahip devasa modellerin eğitilmesini sağlayarak üretken yapay zekada çığır açmıştır. Bu ölçeklenebilirlik ve performans, Transformatörleri çeşitli yapay zeka görevlerinde ilerlemenin merkezi haline getirmiş, araştırma ve endüstri genelinde yeniliği teşvik etmiştir. BERT gibi birçok popüler Transformer modeli, aşağıdaki gibi platformlar aracılığıyla kolayca temin edilebilir Hugging Face ve aşağıdaki gibi çerçeveler kullanılarak uygulanmıştır PyTorch ve TensorFlowgenellikle Ultralytics HUB gibi MLOps platformlarına entegre edilmiştir.

Yapay Zeka ve Makine Öğrenimi Uygulamaları

Transformatörler çok yönlüdür ve çok sayıda yapay zeka uygulamasına güç sağlar:

Transformatör ve Diğer Mimariler

Transformatörleri diğer yaygın sinir ağı mimarilerinden ayırmak faydalı olacaktır:

  • Dönüştürücüler vs. RNN'ler: RNN'ler verileri sıralı olarak işler, bu da onları zaman serisi verileri için uygun hale getirir, ancak uzun dizilerde önceki bilgileri unutmaya eğilimlidir(kaybolan gradyan sorunu). Dönüştürücüler, öz dikkat kullanarak dizileri paralel olarak işler, uzun menzilli bağımlılıkları daha etkili bir şekilde yakalar ve paralel donanımda(GPU'lar) daha hızlı eğitim verir.
  • Dönüştürücüler ve CNN'ler: CNN'ler, konvolüsyonel filtreler kullanarak ızgara benzeri verilerdeki (örneğin, bir görüntüdeki pikseller) yerel desenleri tanımlamada mükemmeldir. tarafından ele alınanlar gibi birçok görme görevi için oldukça verimlidirler. Ultralytics YOLO modeller. Dönüştürücüler, özellikle ViT'ler, görüntüleri yamalara böler ve aralarındaki ilişkileri modellemek için öz dikkati kullanır, küresel bağlamı potansiyel olarak daha iyi yakalar, ancak özellikle model eğitimi sırasında genellikle daha fazla veri ve hesaplama kaynağı gerektirir. CNN özelliklerini Transformer katmanlarıyla birleştiren hibrit mimariler, bazı RT-DETR varyantlarında görüldüğü gibi, her ikisinin de güçlü yönlerinden yararlanmayı amaçlamaktadır. Seçim genellikle belirli göreve, veri kümesi boyutuna ve mevcut hesaplama kaynaklarına bağlıdır.
Tümünü okuyun