Nutze die Möglichkeiten der Zeitreihenanalyse, um Trends vorherzusagen, Anomalien zu erkennen und KI/ML-Anwendungen branchenübergreifend zu optimieren.
Die Zeitreihenanalyse ist eine statistische Methode zur Analyse von Datenreihen, die im Laufe der Zeit gesammelt oder aufgezeichnet wurden. Das Hauptziel ist es, die zugrundeliegende Struktur und die Muster in den Daten - wie Trends, Saisonalität und Zyklen - zu verstehen, um fundierte Entscheidungen zu treffen oder zukünftige Vorhersagen zu treffen. Diese Technik ist in verschiedenen Bereichen von grundlegender Bedeutung, da sie historische Daten nutzt, um zukünftige Werte vorherzusagen und zeitliche Dynamiken zu verstehen. Es ist ein Spezialgebiet des maschinellen Lernens (ML), das sich speziell auf zeitlich geordnete Datenpunkte konzentriert, die oft in regelmäßigen Abständen (z. B. stündlich, täglich, monatlich) erhoben werden.
Um Zeitreihendaten zu verstehen, müssen mehrere Schlüsselkomponenten identifiziert werden:
Für eine effektive Analyse sind oft Techniken zur Datenvorverarbeitung erforderlich. Dazu gehören der Umgang mit fehlenden Werten, die Glättung der Daten mit Methoden wie dem gleitenden Durchschnitt und möglicherweise die Umwandlung der Daten, um Stationarität zu erreichen. Stationarität, bei der statistische Eigenschaften wie Mittelwert und Varianz über die Zeit konstant bleiben, ist eine gängige Anforderung für traditionelle Modelle wie ARIMA (Autoregressive Integrated Moving Average). Bibliotheken wie Pandas sind für die Datenmanipulation in diesem Zusammenhang unerlässlich.
Für die Zeitreihenanalyse werden verschiedene Techniken und Modelle eingesetzt, die von klassischen statistischen Methoden bis hin zu modernen Ansätzen des maschinellen Lernens reichen:
Die Zeitreihenanalyse ist in vielen KI- und ML-Anwendungen für die prädiktive Modellierung und die Erkennung von Anomalien entscheidend:
Während sich die Zeitreihenanalyse auf Sequenzen numerischer oder kategorischer Datenpunkte im Zeitverlauf konzentriert, befasst sich Computer Vision (CV) mit der Interpretation visueller Informationen aus Bildern oder Videos. Aufgaben wie die Erkennung von Objekten oder die Segmentierung von Bildern, die oft von Modellen wie Ultralytics YOLO11durchgeführt werden, analysieren in erster Linie räumliche Inhalte innerhalb von Einzelbildern oder setzen Objekte über Bilder hinweg in Beziehung(Objektverfolgung).
Obwohl die Videoanalyse von Natur aus eine zeitliche Dimension beinhaltet (Abfolge von Einzelbildern), unterscheiden sich die verwendeten Techniken oft von traditionellen Zeitreihenmethoden. Bei der Videoanalyse können räumlich-zeitliche Modelle (wie 3D CNNs oder Vision Transformers) zum Einsatz kommen, die sowohl räumliche Merkmale als auch deren Veränderungen im Laufe der Zeit berücksichtigen, anstatt univariate oder multivariate Zeitreihendaten direkt zu analysieren. Einige Computer-Vision-Aufgaben können Zeitreihendaten erzeugen (z. B. die Verfolgung der Anzahl von Objekten im Laufe der Zeit), die dann mit Standard-Zeitreihentechniken analysiert werden können.
Für die Entwicklung und den Einsatz von Zeitreihenmodellen sind verschiedene Tools erforderlich. Neben ML-Bibliotheken bieten spezialisierte Tools wie die Prophet-Bibliothek von Meta benutzerfreundliche Vorhersagefunktionen. Die Verwaltung des Lebenszyklus dieser Modelle, vom Training auf Benchmark- oder benutzerdefinierten Datensätzen (wie denen in der Zeitreihendatenbibliothek) bis hin zur Auswertung und Bereitstellung, erfordert häufig die Anwendung von Machine Learning Operations (MLOps) und Plattformen wie Ultralytics HUB. Als Lernressourcen bieten Texte wie "Forecasting: Principles and Practice" eine umfassende Anleitung, und Plattformen wie Kaggle veranstalten Zeitreihenwettbewerbe für praktische Erfahrungen.