Makine öğreniminde test verilerinin hayati rolünü keşfedin. Gerçek dünya doğruluğunu sağlamak için tarafsız veri kümelerini kullanarak Ultralytics performansını nasıl değerlendireceğinizi öğrenin.
Test Verileri, makine öğrenimi (ML) modelinin nihai performansını değerlendirmek için özel olarak ayrılmış, daha büyük bir veri kümesinin belirli bir alt kümesidir. Önceki öğrenme aşamalarında kullanılan verilerin aksine, test verileri geliştirme döngüsünün sonuna kadar algoritma tarafından tamamen "görünmez" kalır. Bu izolasyon, bilgisayar görme (CV) modelinin veya diğer AI sisteminin yeni, gerçek dünya girdilerine ne kadar iyi genelleme yapacağını Bu izolasyon, bir bilgisayar görme (CV) modelinin veya diğer AI sistemlerinin yeni, gerçek dünya girdilerine ne kadar iyi genelleme yapacağını tarafsız bir şekilde değerlendirmek için çok önemlidir. Test verileri, üretim ortamını simüle ederek, geliştiricilerin modellerinin sadece eğitim örneklerini ezberlemek yerine, altta yatan kalıpları gerçekten öğrendiğini doğrulamasına yardımcı olur.
Standart makine öğrenimi iş akışında, veriler genellikle her biri kendine özgü bir amaca hizmet eden üç farklı kategoriye ayrılır. Bu ayrımlar arasındaki farkı anlamak, sağlam yapay zeka (AI) sistemleri oluşturmak için hayati önem taşır.
Bu ayrımları doğru bir şekilde yönetmek, genellikle Ultralytics gibi araçlarla kolaylaştırılır. Bu araçlar, yüklenen veri kümelerini otomatik olarak bu temel kategorilere göre düzenleyerek titiz bir model değerlendirmesi sağlar.
Test verilerinin temel değeri, veri setindeki önyargı ve varyans sorunlarını detect yeteneğinde yatmaktadır. Bir model, eğitim verilerinde %99 doğruluk oranına ulaşırken test verilerinde sadece %60 doğruluk oranına ulaşıyorsa, bu yüksek varyans (aşırı uyum) olduğunu gösterir. Tersine, her ikisinde de düşük performans, yetersiz uyum olduğunu gösterir. Test verileri, modelin gerçek verilerle ne kadar uyumlu olduğunu anlamak için kullanılır.
Belirlenmiş bir test seti kullanmak, tekrar edilebilirlik ve nesnellik gibi bilimsel ilkelere uygundur. Saf bir test seti olmadan, geliştiriciler "teste göre öğretme" riskine girerler ve bu da değerlendirme aşamasından eğitim aşamasına bilgi sızdırılmasına neden olur. Bu durum, veri sızıntısı olarak bilinir. Bu da, model gerçek dünya verileriyle karşılaştığında çökücü, aşırı iyimser performans tahminlerine yol açar.
Test verileri, sistemler devreye girmeden önce güvenlik ve güvenilirliği sağlamak için yapay zeka kullanan tüm sektörlerde çok önemlidir.
Kullanarak ultralytics paketini kullanarak, bir modelin performansını tutulan veri seti üzerinde kolayca değerlendirebilirsiniz.
Bu val modu genellikle eğitim sırasında doğrulama için kullanılır, ancak belirli bir
test bölümünde çalışacak şekilde de yapılandırılabilir.
veri kümesi YAML yapılandırması.
Önceden eğitilmiş bir YOLO26 modelini değerlendirerek mAP50 gibi metrikleri elde etmek için aşağıdaki adımları izleyin:
from ultralytics import YOLO
# Load a pre-trained YOLO26 model
model = YOLO("yolo26n.pt")
# Evaluate the model's performance on the validation set
# (Note: In a strict testing workflow, you would point 'data'
# to a YAML that defines a specific 'test' split and use split='test')
metrics = model.val(data="coco8.yaml")
# Print a specific metric, e.g., mAP at 50-95% IoU
print(f"Mean Average Precision (mAP50-95): {metrics.box.map}")
Bu süreç, kapsamlı metrikler oluşturarak geliştiricilerin YOLO26 ile YOLO11 gibi farklı mimarileri objektif olarak karşılaştırmasına ve seçilen çözümün projenin tanımlanmış hedeflerini karşıladığından emin olmasına olanak tanır. Kapsamlı testler, yüksek kaliteli AI güvenlik standartlarının karşılanmasını sağlamak için son kontrol aşamasıdır. YOLO11