Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Transfer Learning

Entdecken Sie Transferlernen, um hochpräzise KI mit weniger Daten zu trainieren. Erfahren Sie, wie Sie die vortrainierten Gewichte Ultralytics nutzen können, um Ihre Computer-Vision-Projekte zu beschleunigen.

Transferlernen ist eine leistungsstarke Technik im maschinellen Lernen (ML), bei der ein für eine bestimmte Aufgabe entwickeltes Modell als Ausgangspunkt für ein Modell für eine zweite, verwandte Aufgabe wiederverwendet wird. Anstatt ein neuronales Netzwerk von Grund auf neu zu trainieren – was massive Datensätze und erhebliche Rechenleistung erfordert – nutzen Entwickler das bereits vorhandene Wissen einer KI. Dieser Ansatz ahmt die Art und Weise nach, wie Menschen lernen. Wenn man beispielsweise Klavier spielen kann, ist es viel einfacher, Orgel spielen zu lernen , da das grundlegende Verständnis der Musiktheorie und die Fingerfertigkeit übertragen werden können. Im Zusammenhang mit Deep Learning bedeutet dies, dass ein Modell eine hohe Genauigkeit bei einem neuen Problem mit deutlich weniger Daten und Zeit erreichen kann.

Wie Transfer Learning funktioniert

Die Wirksamkeit des Transferlernens liegt in der hierarchischen Natur der Merkmalsextraktion. Deep-Learning-Modelle, insbesondere solche, die in der Bildverarbeitung verwendet werden, lernen, Muster in Schichten zu erkennen. Die ersten Schichten des Backbones detect , universelle Merkmale wie Kanten, Kurven und Texturen. Diese Low-Level-Merkmale sind auf fast alle visuellen Aufgaben anwendbar.

Der Prozess umfasst in der Regel zwei Hauptphasen:

  1. Vortraining: Ein Modell wird anhand eines umfangreichen Benchmark-Datensatzes trainiert, beispielsweise ImageNet, trainiert, um allgemeine visuelle Darstellungen zu erlernen. Dies führt zu einer Reihe von Modellgewichten, die bereits die visuelle Struktur verstehen.
  2. Anpassung: Das vortrainierte Modell wird dann an eine bestimmte Nischenaufgabe angepasst. Dies geschieht häufig durch das „Einfrieren“ der frühen Schichten (wobei ihre Gewichte unverändert bleiben) und das erneute Trainieren nur der letzten Schichten oder des Erkennungskopfes anhand eines kleineren, benutzerdefinierten Datensatzes.

Anwendungsfälle in der Praxis

Transferlernen hat KI demokratisiert, indem es den Aufbau spezialisierter Lösungen ohne die Ressourcen der großen Technologieunternehmen ermöglicht.

  • KI im Gesundheitswesen: Es ist schwierig, Millionen von annotierten medizinischen Bildern für jede spezifische Krankheit zu sammeln. Forscher können jedoch ein Modell, das auf Alltagsgegenstände vorab trainiert wurde, auf die medizinische Bildanalyse anwenden. Das Modell überträgt seine Fähigkeit, detect und Anomalien zu detect , um Tumore in Röntgenbildern oder MRT-Scans mit hoher Präzision zu identifizieren.
  • KI in der Fertigung: In industriellen Umgebungen müssen visuelle Inspektionssysteme schnell an neue Produktlinien angepasst werden können. Ein allgemeines Fehlererkennungsmodell kann schnell aktualisiert werden, um Fehler in einer bestimmten neuen Komponente, wie z. B. einem Mikrochip, zu erkennen, wobei intelligenteFertigungsabläufe genutzt werden, um Ausfallzeiten zu minimieren.

Beziehung zu anderen Konzepten

Es ist hilfreich, Transferlernen von eng verwandten Begriffen zu unterscheiden:

  • vs. Feinabstimmung: Feinabstimmung ist eine spezifische Methode zur Umsetzung des Transferlernens. Während Transferlernen das übergeordnete Konzept der Wiederverwendung von Wissen ist, bezieht sich Feinabstimmung auf den mechanischen Prozess des Auftauens von Teilen des Modells und deren Training mit neuen Daten bei einer niedrigeren Lernrate.
  • vs. Zero-Shot-Lernen: Transferlernen erfordert eine Trainingsphase mit einigen gekennzeichneten Daten für die neue Aufgabe. Im Gegensatz dazu versucht Zero-Shot-Lernen classify zu classify , die das Modell noch nie gesehen hat, wobei es sich häufig auf semantische Beschreibungen statt auf visuelle Beispiele stützt.

Praktisches Beispiel

Die folgenden Python Der Ausschnitt demonstriert Transferlernen unter Verwendung der ultralytics Bibliothek. Wir laden die YOLO26 Modell, das mit vortrainierten Gewichten aus dem COCO geliefert wird. Wenn wir das Training mit einem neuen Datensatz beginnen, überträgt das Modell automatisch seine vorab erlernten Funktionen auf die neue Aufgabe.

from ultralytics import YOLO

# Load a pre-trained YOLO26 model (transferring weights from COCO)
model = YOLO("yolo26n.pt")

# Train the model on a new, smaller dataset to adapt its knowledge
# This leverages the pre-learned backbone for faster convergence
results = model.train(data="coco8.yaml", epochs=5)

Für die Verwaltung von Datensätzen und die Ausführung dieser Trainingsläufe in der Cloud optimieren Tools wie die Ultralytics den Prozess und ermöglichen es Teams, bei der Annotation von Daten zusammenzuarbeiten und transfergelernte Modelle effizient einzusetzen.

Für einen tieferen Einblick in die akademische Theorie bieten die Stanford CS231n-Notizen einen hervorragenden Überblick, während das PyTorch LearningTutorial umfangreiche technische Details zur Implementierung enthält.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten