Glossar

Normalisierung

Entdecke die Macht der Normalisierung beim maschinellen Lernen! Erfahre, wie sie das Modelltraining verbessert, die Leistung steigert und für robuste KI-Lösungen sorgt.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Die Normalisierung ist eine wichtige Vorverarbeitungstechnik beim maschinellen Lernen und in der Datenwissenschaft, bei der die Daten auf einen Standardbereich umskaliert werden, der in der Regel zwischen 0 und 1 oder -1 und 1 liegt. Mit diesem Verfahren soll sichergestellt werden, dass alle Merkmale gleichmäßig zum Training des Modells beitragen und verhindert wird, dass Merkmale mit größeren Werten diejenigen mit kleineren Werten dominieren. Indem verschiedene Merkmale auf eine ähnliche Skala gebracht werden, trägt die Normalisierung dazu bei, dass Algorithmen schneller und effizienter konvergieren, insbesondere solche, die empfindlich auf die Skalierung von Merkmalen reagieren, wie z. B. auf Gradientenabstieg basierende Methoden, die beim Deep Learning eingesetzt werden.

Warum Normalisierung wichtig ist

In Datensätzen haben die Merkmale oft unterschiedliche Wertebereiche. In einem Datensatz zur Vorhersage von Hauspreisen kann zum Beispiel die Größe eines Hauses zwischen 500 und 5000 Quadratmetern liegen, während die Anzahl der Schlafzimmer nur zwischen 1 und 5 liegt. Ohne Normalisierung könnten maschinelle Lernmodelle den Merkmalen mit größeren Bereichen eine übermäßige Bedeutung beimessen. Die Normalisierung behebt dieses Problem und stellt sicher, dass alle Merkmale beim Training gleich behandelt werden. Dies führt zu stabileren und robusteren Modellen, besserer Leistung und kürzeren Trainingszeiten, insbesondere bei Algorithmen wie neuronalen Netzen, die in Ultralytics YOLO Modellen verwendet werden.

Arten der Normalisierung

Es werden häufig verschiedene Normalisierungsverfahren verwendet:

  • Min-Max-Skalierung: Dies ist eine der am weitesten verbreiteten Techniken. Sie skaliert und übersetzt jedes einzelne Merkmal so, dass es im Bereich [0, 1] liegt. Mehr über die Min-Max-Skalierung erfährst du auf der Website von Scikit-learn, einer beliebten Bibliothek für maschinelles Lernen in Python.
  • Z-Score Standardisierung: Obwohl es sich technisch gesehen um eine Standardisierung handelt, wird sie oft gleichbedeutend mit einer Normalisierung verwendet. Bei der Z-Score-Standardisierung werden die Daten so umgewandelt, dass sie einen Mittelwert von 0 und eine Standardabweichung von 1 haben. Diese Methode ist im Vergleich zur Min-Max-Skalierung weniger anfällig für Ausreißer.
  • Max Abs Skalierung: Diese Methode skaliert jedes Merkmal mit seinem maximalen absoluten Wert. Sie ist besonders nützlich für spärliche Daten und stellt sicher, dass die Werte innerhalb des Bereichs [-1, 1] bleiben.

Die Wahl der geeigneten Normalisierungstechnik hängt vom Datensatz und dem verwendeten Machine-Learning-Modell ab. Für viele Deep Learning-Anwendungen, wie z. B. das Training von Ultralytics YOLO Modellen für die Objekterkennung, ist die Normalisierung ein Standard-Vorverarbeitungsschritt.

Anwendungen der Normalisierung

Die Normalisierung wird in vielen Bereichen der KI und des ML eingesetzt. Hier sind ein paar Beispiele:

  • Bildverarbeitung: In der Computer Vision werden Bilder oft als Pixelwerte im Bereich von 0 bis 255 dargestellt. Es ist eine gängige Praxis, diese Pixelwerte auf einen Bereich zwischen 0 und 1 zu normalisieren, bevor sie in ein Convolutional Neural Network (CNN) eingespeist werden. Dies kann die Fähigkeit des Modells verbessern, Merkmale aus Bildern zu lernen, und so Aufgaben wie die Objekterkennung mit Ultralytics YOLOv8 oder die Bildklassifizierung verbessern. Erforsche, wie die Vorverarbeitung von kommentierten Daten in Computer-Vision-Projekten für eine optimale Modellleistung entscheidend ist.
  • Medizinische Bildanalyse: In der medizinischen Bildanalyse ist die Normalisierung von entscheidender Bedeutung, um die Intensitätsbereiche von Bildern verschiedener Scanner oder Patienten zu standardisieren. Diese Standardisierung ist entscheidend dafür, dass KI-Modelle Anomalien oder Krankheiten genau erkennen können, unabhängig von der Quelle des medizinischen Bildes. Bei der Erkennung von Hirntumoren mithilfe von Ultralytics YOLO11 in der medizinischen Bildgebung sorgt eine einheitliche Normalisierung dafür, dass das Modell über verschiedene Datensätze hinweg robust und zuverlässig ist.

Zusammenfassend lässt sich sagen, dass die Normalisierung ein grundlegender Schritt bei der Vorbereitung von Daten für maschinelles Lernen ist. Sie stellt sicher, dass alle Merkmale einen fairen Beitrag leisten, beschleunigt das Training und verbessert die Stabilität und Leistung von KI-Modellen in verschiedenen Anwendungen, einschließlich derjenigen, die auf Ultralytics YOLO basieren.

Alles lesen