Google'un devrim niteliğindeki NLP modeli BERT'i keşfedin. Çift yönlü bağlam anlayışının arama ve sohbet robotları gibi yapay zeka görevlerini nasıl dönüştürdüğünü öğrenin.
Açılımı Bidirectional Encoder Representations from Transformers olan BERT, Google AI Language'daki araştırmacılar tarafından geliştirilen Doğal Dil İşleme (NLP) ön eğitimi için dönüm noktası niteliğinde bir tekniktir. 2018 yılında tanıtılan BERT, yalnızca düz bir metin külliyatı kullanılarak önceden eğitilmiş ilk derinlemesine çift yönlü, denetimsiz dil temsili olarak makinelerin insan dilini anlama biçiminde devrim yarattı. Kelimeleri sırayla değil, cümledeki diğer tüm kelimelerle ilişkili olarak işlemek için güçlü Transformer mimarisinden, özellikle de kodlayıcı kısmından yararlanır.
Metni tek bir yönde (soldan sağa veya sağdan sola) işleyen önceki modellerin aksine, BERT tüm kelime dizisini bir kerede işler. Bu çift yönlü yaklaşım, bir kelimenin bağlamını hem kendisinden önceki hem de sonraki kelimelere dayanarak kavramasını sağlar. "Para yatırmak için bankaya gittim" ile "Nehir kıyısında oturdum" ifadelerindeki "banka" kelimesinin anlamını anlamaya çalıştığınızı düşünün. BERT'in çift yönlülüğü bu anlamları etkili bir şekilde ayırt etmesine yardımcı olur. Bu ilişkileri, Maskeli Dil Modelleme (gizli kelimeleri tahmin etme) ve Sonraki Cümle Tahmini gibi teknikleri kullanarak Wikipedia gibi büyük miktarda metin verisi üzerinde önceden eğitilerek öğrenir. Sonuçta ortaya çıkan zengin dil katıştırmaları içeren önceden eğitilmiş model, daha sonra daha küçük, göreve özgü veri kümeleriyle belirli aşağı akış NLP görevleri için hızlı bir şekilde uyarlanabilir veya'ince ayar' yapılabilir.
BERT'in dil nüanslarını anlama yeteneği, çeşitli uygulamalarda önemli gelişmelere yol açmıştır:
Diğer uygulamalar arasında metin özetleme araçlarının iyileştirilmesi ve makine çevirisi sistemlerinin geliştirilmesi yer almaktadır.
BERT öncelikle anlama görevleri için metin kodlamaya odaklanır. Çift yönlü yapısı, temel Tekrarlayan Sinir Ağları (RNN'ler) gibi daha önceki tek yönlü modellerle tezat oluşturmaktadır. Aynı zamanda Transformer mimarisine dayanmakla birlikte BERT, GPT (Generative Pre-trained Transformer) gibi tipik olarak metni kodlamak yerine üretmek için optimize edilmiş modellerden farklıdır. Transformer mimarisinin kendisi de Vision Transformer (ViT) gibi modellerde görüldüğü gibi bilgisayarla görme görevleri için uyarlanmıştır ve mimarinin NLP'nin ötesindeki esnekliğini göstermektedir. Önceden eğitilmiş birçok BERT modeli aşağıdaki gibi platformlar aracılığıyla kolayca temin edilebilir Hugging Face ve Ultralytics HUB gibi araçlar kullanılarak iş akışlarına entegre edilebilir.