Entdecken Sie Transferlernen, um hochpräzise KI mit weniger Daten zu trainieren. Erfahren Sie, wie Sie die vortrainierten Gewichte Ultralytics nutzen können, um Ihre Computer-Vision-Projekte zu beschleunigen.
Transferlernen ist eine leistungsstarke Technik im maschinellen Lernen (ML), bei der ein für eine bestimmte Aufgabe entwickeltes Modell als Ausgangspunkt für ein Modell für eine zweite, verwandte Aufgabe wiederverwendet wird. Anstatt ein neuronales Netzwerk von Grund auf neu zu trainieren – was massive Datensätze und erhebliche Rechenleistung erfordert – nutzen Entwickler das bereits vorhandene Wissen einer KI. Dieser Ansatz ahmt die Art und Weise nach, wie Menschen lernen. Wenn man beispielsweise Klavier spielen kann, ist es viel einfacher, Orgel spielen zu lernen , da das grundlegende Verständnis der Musiktheorie und die Fingerfertigkeit übertragen werden können. Im Zusammenhang mit Deep Learning bedeutet dies, dass ein Modell eine hohe Genauigkeit bei einem neuen Problem mit deutlich weniger Daten und Zeit erreichen kann.
Die Wirksamkeit des Transferlernens liegt in der hierarchischen Natur der Merkmalsextraktion. Deep-Learning-Modelle, insbesondere solche, die in der Bildverarbeitung verwendet werden, lernen, Muster in Schichten zu erkennen. Die ersten Schichten des Backbones detect , universelle Merkmale wie Kanten, Kurven und Texturen. Diese Low-Level-Merkmale sind auf fast alle visuellen Aufgaben anwendbar.
Der Prozess umfasst in der Regel zwei Hauptphasen:
Transferlernen hat KI demokratisiert, indem es den Aufbau spezialisierter Lösungen ohne die Ressourcen der großen Technologieunternehmen ermöglicht.
Es ist hilfreich, Transferlernen von eng verwandten Begriffen zu unterscheiden:
Die folgenden Python Der Ausschnitt demonstriert Transferlernen unter Verwendung der
ultralytics Bibliothek. Wir laden die YOLO26 Modell,
das mit vortrainierten Gewichten aus dem COCO geliefert wird. Wenn wir das Training mit einem neuen Datensatz beginnen, überträgt das
Modell automatisch seine vorab erlernten Funktionen auf die neue Aufgabe.
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (transferring weights from COCO)
model = YOLO("yolo26n.pt")
# Train the model on a new, smaller dataset to adapt its knowledge
# This leverages the pre-learned backbone for faster convergence
results = model.train(data="coco8.yaml", epochs=5)
Für die Verwaltung von Datensätzen und die Ausführung dieser Trainingsläufe in der Cloud optimieren Tools wie die Ultralytics den Prozess und ermöglichen es Teams, bei der Annotation von Daten zusammenzuarbeiten und transfergelernte Modelle effizient einzusetzen.
Für einen tieferen Einblick in die akademische Theorie bieten die Stanford CS231n-Notizen einen hervorragenden Überblick, während das PyTorch LearningTutorial umfangreiche technische Details zur Implementierung enthält.