Sözlük

Halüsinasyon (LLM'lerde)

GPT-3 gibi LLM'lerde halüsinasyonların nasıl yönetileceğini keşfedin, etkili teknikler ve etik gözetim ile YZ doğruluğunu artırın.

YOLO modellerini Ultralytics HUB ile basitçe
eğitin

Daha fazla bilgi edinin

Büyük Dil Modelleri (LLM'ler) insan benzeri metinler üretmek için olağanüstü yeteneklere sahiptir, ancak bazen 'halüsinasyon' olarak bilinen gerçekte yanlış veya saçma çıktılar üretirler. LLM'lerdeki halüsinasyonlar, modelin gerçek dünya verilerini veya geçerli bilgileri yansıtmayan içerik ürettiği durumları ifade eder. Halüsinasyonların anlaşılması ve yönetilmesi, etkili bir yapay zeka uygulaması için kritik öneme sahiptir.

Halüsinasyonları Anlamak

Halüsinasyonların Nedenleri

  1. Eğitim Verisi Sınırlamaları: LLM'ler kapsamlı veri kümeleri üzerinde eğitilir, ancak bu veri kümeleri halüsinasyonlara yol açan hatalar veya önyargılar içerebilir. Dahası, güncel veya eksiksiz bilgilerin olmaması yanlışlıkları daha da kötüleştirebilir.
  2. Olasılıksal Doğa: LLM'ler olasılıklara dayalı olarak metin üretir. Doğası gereği belirsiz olan bu süreç bazen 'bir şeyler uydurmaya' benzer şekilde yaratıcı ancak yanlış çıktılar verebilir.

  3. Karmaşık Sorgular: Karmaşık veya muğlak sorularla karşılaştıklarında, LLM'ler boşlukları doldurmak için enterpolasyon yapabilir veya makul ancak yanlış bilgiler oluşturabilir.

Benzer Kavramlardan Farklılaşma

Halüsinasyonlar yanlış üretken sonuçlar içerirken, önyargılı veri kümelerinden kaynaklanan sistematik hatalarla ilgili olan YZ'deki önyargılardan farklıdırlar. Önyargının YZ sistemlerini nasıl etkilediği hakkında daha fazla bilgi için bkz.

Uygunluk ve Uygulamalar

Zorluklarına rağmen, GPT-3 Glossary'de incelenen GPT-3 gibi LLM'ler, bağlamsal anlamanın genellikle ara sıra görülen halüsinasyonları telafi ettiği sohbet robotları, içerik oluşturma ve daha fazlası dahil olmak üzere çeşitli uygulamalar için gelişmiş yetenekler sağlar. Gerçek dünya dağıtımları için Chatbot Uygulamalarını keşfedin.

Halüsinasyonların Azaltılması

Hafifletme Teknikleri

  1. Geri Alma-Artırılmış Üretim (RAG): Modeller harici verileri kullanarak yanıtları rafine eder ve halüsinasyonları azaltır. RAG Tekniklerine daha derinlemesine dalın.

  2. İnce ayar: Modelleri belirli veri kümelerine göre uyarlamak doğruluğu artırır. İnce Ayar Yöntemleri bölümünde daha fazla bilgi edinin.

  3. İnsan Gözetimi: Döngüde insan yaklaşımının dahil edilmesi, Sağlık Hizmetlerinde Yapay Zeka'da tartışıldığı gibi sağlık hizmetleri gibi sektörlerde çok önemli bir adım olan yapay zeka çıktılarının doğrulanmasını sağlar.

Gerçek Dünyadan Örnekler

  1. Müşteri Desteği: Microsoft Copilot tarafından kullanılanlar gibi yapay zeka sohbet robotları bazen yanlış bilgi vererek halüsinasyon görmektedir ve bu da sürekli eğitim ve iyileştirme gerektirmektedir.

  2. İçerik Üretimi: YZ tarafından üretilen haber raporları, LLM'lerin yeterli bağlam veya veri doğruluğu olmadan anlatılar oluşturmaya çalışması nedeniyle var olmayan gerçekleri içerebilir.

Etik Çıkarımlar

Halüsinasyonlar, özellikle yanlış bilginin önemli etkilere sahip olabileceği uygulamalarda etik kaygıları artırmaktadır. YZ etiği ve hesap verebilirliğinin sağlanması vazgeçilmezdir ve bu konu YZ Etiği başlığı altında daha ayrıntılı olarak incelenmiştir.

Gelecekteki Yönelimler

Yapay zeka gelişmeye devam ettikçe, LLM'lerin doğruluğunu ve güvenilirliğini iyileştirme çabaları, halüsinasyonları en aza indirirken sektörler arası uygulamaları güçlendirecektir. Gelişmiş harici doğrulama yöntemlerinin ve daha sağlam eğitim veri setlerinin entegrasyonu muhtemelen yeni nesil LLM'leri tanımlayacaktır.

LLM uygulamaları ve halüsinasyon yönetimine ilişkin sürekli gelişmeler ve içgörüler için Ultralytics Blog 'u keşfedin ve doğrudan yapay zeka etkileşim araçları için Ultralytics Uygulamasını indirmeyi düşünün.

Tümünü okuyun