Erfahre, wie wichtig die Genauigkeit beim maschinellen Lernen ist, wie sie berechnet wird, wo die Grenzen bei unausgewogenen Datensätzen liegen und wie du die Modellleistung verbessern kannst.
Die Genauigkeit ist eine grundlegende Kennzahl beim maschinellen Lernen (ML), die die allgemeine Korrektheit der Vorhersagen eines Modells über alle Klassen hinweg misst. Sie gibt den Anteil der richtig klassifizierten Instanzen an der Gesamtzahl der ausgewerteten Instanzen an. Wenn ein Modell zum Beispiel 90 von 100 Fällen richtig vorhersagt, beträgt seine Genauigkeit 90%. Auch wenn die Genauigkeit ein guter Ausgangspunkt für die Bewertung der Modellleistung ist, ist es wichtig, auch andere Kennzahlen zu berücksichtigen, insbesondere bei unausgewogenen Datensätzen, um ein umfassenderes Bild von der Effektivität eines Modells zu erhalten.
Die Genauigkeit ist ein entscheidender Indikator für die Fähigkeit eines Modells, auf ungesehene Daten zu verallgemeinern, was ein Hauptziel beim maschinellen Lernen ist. Eine hohe Genauigkeit deutet darauf hin, dass das Modell die zugrundeliegenden Muster in den Daten effektiv erlernt hat und zuverlässige Vorhersagen für neue, ungesehene Fälle machen kann. In vielen realen Anwendungen, wie z. B. der medizinischen Bildanalyse und autonomen Fahrzeugen, sind genaue Vorhersagen für die Sicherheit, Zuverlässigkeit und fundierte Entscheidungen von größter Bedeutung.
Die Genauigkeit wird berechnet, indem die Anzahl der richtigen Vorhersagen durch die Gesamtzahl der Vorhersagen des Modells geteilt wird. Zu den korrekten Vorhersagen gehören sowohl wahr-positive (korrekt identifizierte positive Instanzen) als auch wahr-negative (korrekt identifizierte negative Instanzen). Je höher die Anzahl der wahren Positiven und der wahren Negativen, desto höher die Genauigkeit.
Die Genauigkeit ist zwar eine wertvolle Kennzahl, hat aber ihre Grenzen, insbesondere bei unausgewogenen Datensätzen. In solchen Fällen kann ein Modell eine hohe Genauigkeit erreichen, indem es überwiegend die Mehrheitsklasse vorhersagt, während es bei der Minderheitsklasse schlecht abschneidet. Das kann irreführend sein, denn die Gesamtleistung des Modells spiegelt möglicherweise nicht seine Effektivität bei der Lösung des spezifischen Problems wider.
Nehmen wir zum Beispiel einen Datensatz zur Erkennung einer seltenen Krankheit, bei dem nur 2% der Instanzen positiv sind. Ein Modell, das immer "negativ" vorhersagt, würde zwar eine Genauigkeit von 98 % erreichen, wäre aber völlig nutzlos, um Personen mit der Krankheit zu identifizieren. In solchen Fällen liefern Kennzahlen wie Präzision, Recall und F1-Score eine differenziertere Bewertung der Leistung des Modells, insbesondere in Bezug auf die Minderheitenklasse.
Die Genauigkeit spielt in verschiedenen realen Anwendungen von KI und maschinellem Lernen eine wichtige Rolle. Hier sind zwei konkrete Beispiele:
Zur Verbesserung der Genauigkeit von maschinellen Lernmodellen können verschiedene Techniken eingesetzt werden:
Durch den Einsatz dieser Techniken können Praktiker/innen die Genauigkeit ihrer maschinellen Lernmodelle verbessern und zuverlässigere und effektivere KI-Systeme entwickeln. Diese Systeme tragen zu Fortschritten in Bereichen wie Computer Vision, natürliche Sprachverarbeitung und Deep Learning bei.
Ultralytics HUB bietet eine benutzerfreundliche Plattform für das Training und den Einsatz von Ultralytics YOLO Modellen, die für ihre außergewöhnliche Genauigkeit bei der Objekterkennung bekannt sind. Mit Ultralytics HUB können Nutzerinnen und Nutzer ihre Datensätze einfach hochladen, Modelle mit verschiedenen Konfigurationen trainieren und die Genauigkeit während des Trainings überwachen. Die Plattform bietet außerdem Tools zur Visualisierung von Vorhersagen, zur Analyse der Modellleistung und zum Einsatz der Modelle in verschiedenen Umgebungen. Durch den Einsatz von Ultralytics HUB können Nutzer/innen ihre Workflows für maschinelles Lernen optimieren und eine hohe Genauigkeit bei der Objekterkennung erreichen. Weitere Informationen findest du in der Dokumentation vonUltralytics HUB.