Grüner Scheck
Link in die Zwischenablage kopiert

Experimentverfolgung mit Ultralytics YOLO11 und DVC

Erfahre, wie du mit der DVC-Integration deine Ultralytics YOLO11 optimieren kannst, um eine bessere Modellleistung zu erzielen.

Das Verfolgen und Überwachen von Computer Vision Experimenten, bei denen Maschinen darauf trainiert werden, visuelle Daten zu interpretieren und zu verstehen, ist ein entscheidender Teil der Entwicklung und Feinabstimmung von Vision AI Modellen wie Ultralytics YOLO11. Bei diesen Experimenten werden oft verschiedene Schlüsselparameter getestet und die Messwerte und Ergebnisse mehrerer Trainingsläufe des Modells aufgezeichnet. Auf diese Weise kann die Leistung des Modells analysiert und das Modell datengesteuert verbessert werden. 

Ohne ein gut definiertes System zur Nachverfolgung von Experimenten können der Vergleich von Ergebnissen und Änderungen an den Modellen kompliziert werden und zu Fehlern führen. Die Automatisierung dieses Prozesses ist eine gute Option, um eine bessere Konsistenz zu gewährleisten.

Genau das ist das Ziel der von Ultralytics unterstützten DVCLive-Integration. DVCLive vereinfacht die automatische Protokollierung von Versuchsdetails, die Visualisierung von Ergebnissen und die Nachverfolgung der Modellleistung - und das alles in einem einzigen Arbeitsablauf.

In diesem Artikel erläutern wir, wie du die DVCLive-Integration beim Training von Ultralytics YOLO11 nutzen kannst. Wir werfen auch einen Blick auf die Vorteile der Integration und wie sie die Verfolgung von Experimenten für eine bessere Entwicklung von Vision AI-Modellen erleichtert.

Was ist DVCLive?

DVCLive wurde von DVC (Data Version Control) entwickelt und ist ein zuverlässiges Open-Source-Tool für die Nachverfolgung von Experimenten zum maschinellen Lernen. Die Python DVCLive bietet einen Echtzeit-Experiment-Logger, der es KI-Entwicklern und -Forschern ermöglicht, die Metriken und Parameter ihrer Experimente zu verfolgen. 

Es kann zum Beispiel automatisch wichtige Leistungsdaten des Modells protokollieren, die Ergebnisse verschiedener Trainingsläufe vergleichen und die Modellleistung visualisieren. Mit diesen Funktionen hilft dir DVCLive, einen strukturierten und reproduzierbaren Machine-Learning-Workflow aufrechtzuerhalten.

Abb. 1. Ein kurzer Blick auf das Dashboard von DVCLive zur Experimentverfolgung.

Hauptmerkmale von DVCLive

Die DVCLive-Integration ist einfach zu bedienen und kann deine Computer-Vision-Projekte verbessern, indem sie klare, leicht verständliche Datenvisualisierungen und Analysewerkzeuge bereitstellt. Hier sind einige weitere wichtige Funktionen von DVCLive:

  • Unterstützt verschiedene Frameworks: DVCLive kann mit anderen gängigen Frameworks für maschinelles Lernen verwendet werden. Das macht die Einbindung in bestehende Arbeitsabläufe und die Verbesserung der Experimentverfolgung einfach.
  • Interaktive Diagramme: Es kann verwendet werden, um automatisch interaktive Diagramme aus Daten zu erstellen, die visuelle Darstellungen von Leistungskennzahlen im Zeitverlauf liefern. 
  • Leichtes Design: DVCLive ist eine leichtgewichtige, flexible und zugängliche Bibliothek, da sie in verschiedenen Projekten und Umgebungen eingesetzt werden kann.

Warum solltest du die DVCLive-Integration nutzen?

Wenn du die Ultralytics Dokumentation durchgehst und die verfügbaren Integrationen erkundest, stellst du dir vielleicht die Frage: Was zeichnet die DVCLive Integration aus und warum sollte ich sie für meinen Arbeitsablauf wählen?

Angesichts von Integrationen wie TensorBoard und MLflow, die ebenfalls Tools zum Verfolgen von Metriken und zur Visualisierung von Ergebnissen anbieten, ist es wichtig, die einzigartigen Qualitäten zu verstehen, die diese Integration auszeichnen. 

Hier erfährst du, warum DVCLive die ideale Wahl für deine Ultralytics YOLO sein könnte:

  • Minimaler Overhead: DVCLive ist ein großartiges Werkzeug für die Protokollierung von Versuchsdaten, ohne dass zusätzliche Rechen- oder Speicherlast anfällt. Es speichert Protokolle als reine Text- oder JSON-Dateien und lässt sich so leicht in bestehende Arbeitsabläufe integrieren, ohne auf externe Dienste oder Datenbanken angewiesen zu sein.
  • Native Integration mit DVC: DVCLive wurde von dem Team entwickelt, das hinter DVC steht, und funktioniert reibungslos mit dem Daten- und Modellversionierungssystem von DVC. Es ermöglicht auch die Nachverfolgung von Datensatzversionen, Modellprüfpunkten und Pipeline-Änderungen und ist damit ideal für Teams, die DVC bereits für die Reproduzierbarkeit von maschinellem Lernen nutzen.
  • Git-kompatibel: DVCLive lässt sich in Git integrieren, so dass es einfach ist, Änderungen zu verfolgen, Modelle zu vergleichen und zu früheren Versionen zurückzukehren, während die Experimentdaten organisiert und versionskontrolliert bleiben.

Erste Schritte mit dem DVCLive 

Ultralytics YOLO11 mit DVCLive zu verfolgen, ist einfacher, als du vielleicht erwartest. Sobald die erforderlichen Bibliotheken installiert und konfiguriert sind, kannst du schnell mit dem Training deines YOLO11 beginnen.

Nach dem Training kannst du wichtige Einstellungen wie Epochen (die Anzahl der Durchläufe des Modells durch den gesamten Datensatz), Geduld (wie lange du wartest, bevor du aufhörst, wenn keine Verbesserung eintritt) und Zielbildgröße (die Auflösung der für das Training verwendeten Bilder) anpassen, um die Genauigkeit zu verbessern. Anschließend kannst du mit dem Visualisierungstool von DVCLive verschiedene Versionen deines Modells vergleichen und ihre Leistung analysieren.

Ein detaillierteres Verständnis des Modelltrainings und der Best Practices findest du in unserer Dokumentation für das individuelle Training von Ultralytics YOLO .

Als Nächstes erklären wir dir, wie du die DVCLive-Integration installierst und verwendest, während du YOLO11 trainierst.

Installieren der Anforderungen

Bevor du mit dem Training YOLO11 beginnen kannst, musst du sowohl das Ultralytics Python als auch DVCLive installieren. Diese Integration wurde so konzipiert, dass beide Bibliotheken standardmäßig nahtlos zusammenarbeiten, sodass du dich nicht um komplexe Konfigurationen kümmern musst.

Der gesamte Installationsprozess kann mit einem einzigen Pip-Befehl in wenigen Minuten abgeschlossen werden. Pip ist ein Paketverwaltungstool zur Installation von Python , wie in der Abbildung unten zu sehen ist. 

Abb. 2. Installation von Ultralytics und DVCLive.

Sobald du die Pakete installiert hast, kannst du deine Umgebung einrichten und die notwendigen Anmeldeinformationen hinzufügen, damit DVCLive reibungslos läuft. Das Einrichten eines Git-Repositorys ist außerdem hilfreich, um deinen Code und alle Änderungen an deinen DVCLive-Einstellungen im Blick zu behalten. 

Eine detaillierte Schritt-für-Schritt-Anleitung und andere hilfreiche Tipps findest du in unserem Installationshandbuch. Solltest du bei der Installation der benötigten Pakete auf Probleme stoßen, findest du in unserem Leitfaden für häufige Probleme Lösungen und Ressourcen, die dir weiterhelfen.

Experimentelles Training mit DVCLive 

Nachdem dein YOLO11 abgeschlossen ist, kannst du die Visualisierungswerkzeuge nutzen, um die Ergebnisse eingehend zu analysieren. Insbesondere kannst du die API von DVC nutzen, um die Daten zu extrahieren und sie mit Pandas (einer Python , die die Arbeit mit Daten erleichtert, z. B. indem sie sie für Analysen und Vergleiche in Tabellen organisiert) für eine einfachere Handhabung und Visualisierung zu verarbeiten. 

Wenn du deine Ergebnisse interaktiver und visueller untersuchen möchtest, kannst du auch die parallele Koordinatendarstellung von Plotly verwenden (eine Art Diagramm, das zeigt, wie verschiedene Modellparameter und Leistungsergebnisse miteinander verbunden sind). 

Letztlich kannst du die Erkenntnisse aus diesen Visualisierungen nutzen, um bessere Entscheidungen über die Optimierung deines Modells, die Abstimmung der Hyperparameter oder andere Änderungen zur Steigerung der Gesamtleistung zu treffen. 

Anwendungen von YOLO11 und der DVCLive-Integration

Nachdem wir nun gelernt haben, wie man YOLO11 mit der DVCLive-Integration installiert und visualisiert, wollen wir nun einige der Anwendungen erkunden, die diese Integration verbessern kann.

Landwirtschaft und Präzisionslandwirtschaft

Wenn es um die Landwirtschaft und die Ernte von Nahrungsmitteln geht, kann Präzision einen großen Unterschied machen. Landwirte können zum Beispiel die Unterstützung von YOLO11bei der Objekterkennung und Instanzsegmentierung nutzen, um potenzielle Pflanzenkrankheiten zu identifizieren, Vieh zu verfolgen und Schädlingsbefall zu erkennen. 

Insbesondere kann YOLO11 helfen, Anzeichen von Pflanzenkrankheiten, Schädlingen oder ungesunden Tieren frühzeitig zu erkennen, indem es Bilder von Drohnen oder Kameras analysiert. Diese Art von Vision AI-Systemen ermöglicht es Landwirten, schnell zu handeln, um die Ausbreitung von Problemen zu verhindern, Zeit zu sparen und Verluste zu reduzieren.

Abb. 3. Ein Beispiel für die Verwendung von YOLO11 zur Überwachung von Nutzpflanzen.

Da sich die Bedingungen in der Landwirtschaft mit dem Wetter und den Jahreszeiten ständig ändern, ist es wichtig, die Modelle mit einer Vielzahl von Bildern zu testen, um sicherzustellen, dass sie in verschiedenen Situationen gut funktionieren. Die DVCLive-Integration ist eine gute Möglichkeit, YOLO11 für landwirtschaftliche Anwendungen zu trainieren und seine Leistung zu überprüfen, insbesondere bei unterschiedlichen Datensätzen. 

Analyse des Kundenverhaltens im Einzelhandel

Einzelhandelsgeschäfte können KI und Computer Vision nutzen, um das Kundenverhalten zu verstehen und Verbesserungen vorzunehmen, die das Einkaufserlebnis verbessern. 

Durch die Analyse der Videos von Sicherheitskameras kann YOLO11 verfolgen, wie sich die Menschen im Laden bewegen, welche Bereiche am meisten frequentiert werden und wie die Kunden mit den Produkten interagieren. Anhand dieser Daten können dann Heatmaps erstellt werden, die zeigen, welche Regale die meiste Aufmerksamkeit auf sich ziehen, wie lange sich die Kunden in den verschiedenen Gängen aufhalten und ob die Werbedisplays wahrgenommen werden. 

Mit dieser Business Intelligence können Ladenbesitzer die Produkte neu anordnen, um den Umsatz zu steigern, die Kassenschlangen zu beschleunigen und das Personal anzupassen, um die Kunden dort zu unterstützen, wo und wann sie es am meisten brauchen.

Abb. 4. Ein Beispiel für eine Heatmap, die mit YOLO11 für ein Einkaufszentrum erstellt wurde.

Einzelhandelsgeschäfte haben oft einzigartige Merkmale, wie z. B. unterschiedliche Lichtverhältnisse, Grundrisse und Besucherzahlen. Aufgrund dieser Unterschiede müssen die Bildverarbeitungsmodelle, die zur Analyse der Ladenaktivitäten verwendet werden, sorgfältig getestet und für jeden Standort angepasst werden, um die Genauigkeit zu gewährleisten. Die DVCLive-Integration kann dabei helfen, YOLO11 für den Einzelhandel genauer und zuverlässiger zu machen und so einen besseren Einblick in das Kundenverhalten und die Abläufe im Laden zu erhalten.

Die wichtigsten Erkenntnisse

Wenn du YOLO11 mit der DVCLive-Integration trainierst, kannst du deine Computer Vision Experimente leichter verfolgen und verbessern. Es protokolliert automatisch wichtige Details, zeigt klare visuelle Ergebnisse und hilft dir, verschiedene Versionen deines Modells zu vergleichen. 

Ganz gleich, ob du die Produktivität deines Betriebs steigern oder das Einkaufserlebnis in einem Geschäft verbessern willst, diese Integration stellt sicher, dass deine Vision AI-Modelle gut funktionieren. Durch die Verfolgung von Experimenten kannst du deine Modelle systematisch testen, verfeinern und optimieren, was zu einer kontinuierlichen Verbesserung der Genauigkeit und Leistung führt.

Tritt unserer Community bei und erkunde unser GitHub-Repository, um mehr über Vision AI zu erfahren und unsere Lizenzierungsoptionen für den Start deiner Computer Vision-Projekte kennenzulernen. Interessierst du dich für Innovationen wie KI in der Fertigung oder Computer Vision beim selbstfahrenden Fahren? Besuche unsere Lösungsseiten, um mehr zu erfahren. 

Facebook-LogoTwitter-LogoLinkedIn-LogoKopier-Link-Symbol

Lies mehr in dieser Kategorie

Lass uns gemeinsam die Zukunft
der KI gestalten!

Beginne deine Reise in die Zukunft des maschinellen Lernens