Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Hidden Markov Model (HMM)

Entdecken Sie Hidden Markov Models (HMM) für statistische KI. Erfahren Sie, wie HMMs mit Ultralytics für Aktionserkennung, Sequenzanalyse und zeitliche Logik funktionieren.

Ein Hidden Markov Model (HMM) ist ein statistisches Rahmenwerk, das zur Modellierung von Systemen verwendet wird, bei denen der interne Prozess nicht direkt sichtbar ist – daher „verborgen“ – aber durch eine Abfolge beobachtbarer Ereignisse abgeleitet werden kann. Während sich das moderne Deep Learning weiterentwickelt hat, um komplexe Sequenzen zu verarbeiten, bleibt das HMM ein grundlegendes Konzept in der statistischen KI und Wahrscheinlichkeitstheorie. Es ist besonders effektiv für die Analyse von Zeitreihendaten, bei denen die Reihenfolge der Ereignisse einen entscheidenden Kontext liefert, und stützt sich dabei auf das Kernprinzip, dass die Wahrscheinlichkeit eines zukünftigen Zustands ausschließlich vom aktuellen Zustand abhängt und nicht von der Vorgeschichte.

Kernmechanismen von HMMs

Um die Funktionsweise eines HMM zu verstehen, muss man zwischen den beiden unterschiedlichen Ebenen des Modells unterscheiden: den unsichtbaren Zuständen und den sichtbaren Ausgaben. Das Modell geht davon aus, dass das System nach bestimmten Wahrscheinlichkeiten zwischen versteckten Zuständen wechselt und bei jedem Schritt eine Beobachtung ausgibt.

Ein HMM wird durch eine Reihe von Parametern definiert, die diese Übergänge und Emissionen steuern:

  • Verborgene Zustände: Diese stellen die zugrunde liegende Realität des Systems zu einem bestimmten Zeitpunkt dar. In einem Sprachmodell kann ein verborgener Zustand ein bestimmtes Phonem oder Wort darstellen.
  • Beobachtbare Ereignisse: Dies sind die Datenpunkte, die tatsächlich von Sensoren oder Eingaben erfasst werden. Im Beispiel der Sprache wären die Beobachtung die Audio-Wellenform oder die Spektrogrammdaten.
  • Übergangswahrscheinlichkeiten: Diese Matrix beschreibt die Wahrscheinlichkeit, von einem versteckten Zustand in einen anderen überzugehen. Zum Beispiel die Wahrscheinlichkeit, dass sich das Wetter von „regnerisch” zu „sonnig” ändert.
  • Emissionswahrscheinlichkeiten: Diese definieren die Wahrscheinlichkeit, eine bestimmte Beobachtung bei einem aktuellen versteckten Zustand zu sehen.
  • Anfangswahrscheinlichkeiten: Die Verteilung, die den Zustand bestimmt, in dem das System am wahrscheinlichsten beginnt.

Das Training eines HMM umfasst in der Regel den Baum-Welch-Algorithmus, um diese Parameter aus Trainingsdaten zu schätzen. Nach dem Training wird häufig der Viterbi-Algorithmus verwendet, um die wahrscheinlichste Sequenz versteckter Zustände aus einer neuen Reihe von Beobachtungen zu entschlüsseln.

HMMs im Vergleich zu anderen Sequenzmodellen

HMMs weisen zwar Ähnlichkeiten mit anderen Sequenzverarbeitungswerkzeugen auf, unterscheiden sich jedoch erheblich in ihrer Architektur und Anwendung:

  • HMM vs. Rekursive neuronale Netze (RNN): RNNs und Long Short-Term Memory (LSTM)-Netzwerke sind Deep-Learning-Modelle, die weitreichende Abhängigkeiten und nichtlineare Muster erfassen können, während HMMs einfachere, probabilistische Modelle sind, die durch die Markov-Annahme (Kurzzeitgedächtnis) begrenzt sind. HMMs benötigen jedoch deutlich weniger Daten und sind weitaus besser interpretierbar.
  • HMM vs. Kalman-Filter (KF): Beide werden zur Zustandsschätzung verwendet. Kalman-Filter sind jedoch für kontinuierliche Zustände ausgelegt (z. B. die Verfolgung der genauen Position eines fahrenden Autos), während HMMs für diskrete Zustände verwendet werden (z. B. um festzustellen, ob das Auto „geparkt”, „fährt” oder „steht”).

Anwendungsfälle in der Praxis

Trotz des Aufstiegs des Deep Learning (DL) werden Hidden Markov Models nach wie vor häufig in Szenarien eingesetzt, die eine probabilistische Inferenz über Sequenzen erfordern.

Sprach- und Handschrifterkennung

Historisch gesehen waren HMMs das Rückgrat von Spracherkennungssystemen. In diesem Zusammenhang sind die gesprochenen Wörter die „verborgenen” Zustände und die vom Mikrofon aufgezeichneten Audiosignale die Beobachtungen. HMMs helfen dabei, die wahrscheinlichste Wortfolge zu bestimmen, die das Audiosignal erzeugt hat. In ähnlicher Weise helfen sie bei der Entschlüsselung von kursiver Handschrift, indem sie den Übergang zwischen den Strichen der Zeichen modellieren.

Biologische Sequenzanalyse

Im Bereich der Bioinformatik sind HMMs entscheidend für die Genvorhersage und Proteinausrichtung. Sie analysieren DNA- oder Aminosäuresequenzen, um funktionelle Regionen zu identifizieren, wie z. B. Gene innerhalb eines Genoms. Die „verborgenen” Zustände können codierende oder nicht codierende Regionen darstellen, während die spezifischen Nukleotide (A, C, G, T) als Beobachtungen fungieren.

Aktionserkennung in der Bildverarbeitung

In der modernen Bildverarbeitung können HMMs mit Modellen wie YOLO26 kombiniert werden, um Aktionserkennung durchzuführen. Während YOLO Objekte oder Posen in einzelnen Frames YOLO , kann ein HMM die Abfolge dieser Posen im Zeitverlauf analysieren, um classify Aktion wie „Gehen”, „Laufen” oder „Fallen” classify .

Integration von Vision und Zustandsanalyse

Für Entwickler, die die Ultralytics verwenden, um Datensätze und Modelle zu verwalten, ist das Verständnis sequenzieller Logik von entscheidender Bedeutung. Ein Visionsmodell liefert die Rohbeobachtungen (Erkennungen), die dann in ein Zustandsraummodell wie ein HMM eingespeist werden können, um den zeitlichen Kontext abzuleiten.

Das folgende Beispiel zeigt, wie eine Folge von Beobachtungen mithilfe der YOLO26-Posenabschätzung generiert werden kann. Diese Schlüsselpunkte können als „beobachtbare Ereignisse” für ein nachgeschaltetes HMM oder eine ähnliche Logik dienen, um classify im Zeitverlauf classify .

from ultralytics import YOLO

# Load the YOLO26n-pose model for efficient keypoint detection
model = YOLO("yolo26n-pose.pt")

# Run inference on a video source (the 'observable' sequence)
# stream=True creates a generator for memory efficiency
results = model.predict(source="path/to/video.mp4", stream=True)

# Iterate through frames to extract observations
for result in results:
    # Each 'keypoints' object is an observation for a potential HMM
    keypoints = result.keypoints.xyn.cpu().numpy()

    if keypoints.size > 0:
        print(f"Observation (Normalized Keypoints): {keypoints[0][:5]}...")
        # In a full pipeline, these points would be fed into an HMM decoder

Bedeutung in der modernen KI

Obwohl Transformatoren und große Sprachmodelle (LLMs) HMMs bei Aufgaben wie der natürlichen Sprachverarbeitung (NLP) überholt haben, bleiben HMMs in Edge-Computing- und Umgebungen mit geringer Latenz weiterhin relevant. Aufgrund ihrer Recheneffizienz eignen sie sich ideal für Systeme mit begrenzten Ressourcen, in denen schwere GPU nicht möglich ist. Da sie außerdem auf transparenten Wahrscheinlichkeitsmatrizen basieren, bieten sie eine höhere Beobachtbarkeit im Vergleich zur „Black-Box”-Natur vieler neuronaler Netze.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten