Büyük Verinin yapay zekayı nasıl güçlendirdiğini keşfedin. Bilgisayar görüşü için büyük veri kümelerini yönetmeyi öğrenin, Ultralytics eğitin ve ölçeklendirme için Ultralytics kullanın.
Büyük Veri, geleneksel veri yönetimi araçlarının işleme kapasitesini aşan, son derece büyük, çeşitli ve karmaşık veri kümelerini ifade eder. Yapay zeka alanında, bu kavram genellikle "Üç V" ile tanımlanır: hacim, hız ve çeşitlilik. Hacim, bilgi miktarını ifade eder, hız, verinin üretilme ve işlenme hızını ifade eder ve çeşitlilik, yapılandırılmış sayılar, yapılandırılmamış metinler, görüntüler ve videolar gibi farklı formatları kapsar. Hacim, bilginin toplam miktarını temsil ederken, hız verilerin üretilme ve işlenme hızını ifade eder ve çeşitlilik, yapılandırılmış sayılar, yapılandırılmamış metinler, görüntüler ve videolar gibi farklı formatları kapsar. Modern bilgisayar görüşü için bilgisayar görme sistemleri için Büyük Veri, algoritmaların kalıpları öğrenmesini, senaryolar arasında genelleme yapmasını ve yüksek doğruluk.
Derin öğrenmenin yeniden canlanması derin öğrenmenin , büyük veri kümelerinin mevcudiyeti ile doğrudan bağlantılıdır. Sinir ağları, özellikle YOLO26 gibi sofistike mimariler, büyük veri kümeleri olmadan gelişemezdi. YOLO26gibi karmaşık mimariler, milyonlarca parametrelerini etkili bir şekilde optimize etmek için çok sayıda etiketli örneğe ihtiyaç duyar. Yeterli veri hacmi olmadan, modeller aşırı uyumlanmaya aşırı uyumeğilimli hale gelirler; bu durumda, yeni ve daha önce görülmemiş görüntülerdeki özellikleri tanımayı öğrenmek yerine, eğitim örneklerini ezberlerler.
Bu bilgi akışını yönetmek için mühendisler, sağlam veri açıklama boru hatlarına güveniyorlar. Ultralytics bu süreci basitleştirerek ekiplerin bulutta büyük görüntü koleksiyonlarını düzenlemesine, etiketlemesine ve sürüm kontrolüne olanak tanır. Bu merkezileştirme çok önemlidir çünkü yüksek kaliteli eğitim verilerinin güvenilir AI modelleri üretmek için temiz, çeşitli ve doğru bir şekilde etiketlenmiş olmalıdır.
Büyük veri ve makine öğreniminin bir araya gelmesi, neredeyse her sektörde yenilikçiliği teşvik ediyor.
Büyük Veri'yi veri bilimi ekosistemindeki ilgili terimlerden ayırmak önemlidir:
Petabaytlarca görsel veriyi işlemek için özel bir altyapı gerekir. Apache Spark gibi dağıtık işleme çerçeveleri ve gibi dağıtılmış işleme çerçeveleri ve Amazon S3 veya Azure Blob Storage gibi depolama çözümleri, kuruluşların depolamayı hesaplama gücünden ayırmasına olanak tanır.
Pratik bir bilgisayar görme iş akışında, kullanıcılar nadiren terabaytlarca görüntüyü bir kerede belleğe yükler. Bunun yerine, verimli veri yükleyiciler kullanırlar. Aşağıdaki Python , Ultralytics ile eğitimi nasıl başlatılacağını gösterir ve modeli bir veri kümesi yapılandırma dosyasına yönlendirir. Bu yapılandırma bir harita görevi görür ve modelin eğitim sırasında verileri verimli bir şekilde aktarmasını sağlar eğitim sürecinde etkin bir şekilde veri akışını sağlar.
from ultralytics import YOLO
# Load the cutting-edge YOLO26n model (nano version)
model = YOLO("yolo26n.pt")
# Train the model using a dataset configuration file
# The 'data' argument can reference a local dataset or a massive cloud dataset
# effectively bridging the model with Big Data sources.
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)
Veri kümeleri büyümeye devam ettikçe, veri artırma ve transfer öğrenimi giderek daha önemli hale gelerek, geliştiricilerin sonsuz hesaplama kaynaklarına ihtiyaç duymadan Büyük Verilerinin değerini en üst düzeye çıkarmalarına yardımcı oluyor. Kuruluşlar ayrıca veri gizliliği GDPR GDPRgibi veri gizliliği düzenlemelerine uymak ve AI'yı eğitmek için kullanılan devasa veri kümelerinin kullanıcı haklarına ve etik standartlara uygun olmasını sağlamak zorundadır.