Ein Hidden Markov Model (HMM) ist ein statistisches Modell, das zur Beschreibung von Systemen verwendet wird, die im Laufe der Zeit zwischen verschiedenen Zuständen wechseln. Bei HMMs ist die Abfolge der Zustände, die das System durchläuft, nicht direkt beobachtbar (sie ist "versteckt"), aber sie kann aus einer Abfolge beobachtbarer Ausgaben oder Emissionen abgeleitet werden, die von jedem Zustand erzeugt werden. HMMs eignen sich besonders gut für die Modellierung sequenzieller Daten und die Zeitreihenanalyse in verschiedenen Bereichen der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML). Sie gehören zu einer Klasse von Modellen, die als probabilistische grafische Modelle bekannt sind und einen Rahmen für den Umgang mit Unsicherheit in dynamischen Systemen bieten.
Kernkonzepte
HMMs werden durch zwei wesentliche stochastische (zufällige) Prozesse definiert:
- Verborgene Zustände: Eine zugrunde liegende, nicht beobachtbare Markov-Kette von Zuständen. Das System wechselt zwischen diesen verborgenen Zuständen nach bestimmten Wahrscheinlichkeiten. Die Kernannahme ist die Markov-Eigenschaft: Die Wahrscheinlichkeit des Übergangs in den nächsten Zustand hängt nur vom aktuellen Zustand ab, nicht von der Abfolge der vorherigen Zustände.
- Beobachtbare Emissionen: Jeder verborgene Zustand erzeugt eine beobachtbare Ausgabe oder Emission, die auf einer bestimmten Wahrscheinlichkeitsverteilung basiert. Diese Emissionen sind die Daten, die wir tatsächlich beobachten.
Das Modell ist gekennzeichnet durch:
- Zustände: Eine endliche Menge von versteckten Zuständen.
- Beobachtungen: Eine endliche Menge von möglichen Emissionen oder Beobachtungen.
- Übergangswahrscheinlichkeiten: Die Wahrscheinlichkeiten, von einem verborgenen Zustand in einen anderen zu wechseln.
- Emissionswahrscheinlichkeiten: Die Wahrscheinlichkeiten, eine bestimmte Emission zu beobachten, wenn sich das System in einem bestimmten verborgenen Zustand befindet.
- Anfangszustandsverteilung: Die Wahrscheinlichkeiten, dass das System in jedem verborgenen Zustand startet.
Wie Hidden Markov Modelle funktionieren
Bei der Arbeit mit HMMs geht es in der Regel um drei grundlegende Probleme, die oft mit speziellen Algorithmen angegangen werden, die in Tutorials wie dem von Rabiner beschrieben werden:
- Auswertungsproblem: Wie hoch ist die Wahrscheinlichkeit, dass ein HMM und eine Folge von Beobachtungen durch das Modell erzeugt wurden? (Gelöst mit dem Forward-Algorithmus).
- Dekodierungsproblem: Wie lautet die wahrscheinlichste Abfolge von verborgenen Zuständen, die zu diesen Beobachtungen geführt haben, wenn ein HMM und eine Folge von Beobachtungen gegeben sind? (Gelöst mit dem Viterbi-Algorithmus).
- Lernproblem: Wie können wir bei einer Folge von Beobachtungen (oder mehreren Folgen) die HMM-Parameter (Übergangs- und Emissionswahrscheinlichkeiten) anpassen, um die beobachteten Daten bestmöglich zu berücksichtigen? (Diese Aufgabe wird oft mit dem Baum-Welch-Algorithmus gelöst, einer Variante des Erwartungs-Maximierungs-Algorithmus). Dies ist entscheidend für das Training des Modells.
Anwendungen in der realen Welt
HMMs wurden bereits in zahlreichen Bereichen erfolgreich eingesetzt:
- Spracherkennung: Dies ist eine klassische Anwendung. Ausgeblendete Zustände können Phoneme (Grundeinheiten des Klangs) darstellen, während Beobachtungen akustische Merkmale sind, die aus dem Sprachsignal extrahiert werden. Das HMM dekodiert die wahrscheinlichste Abfolge von Phonemen aus dem Audiosignal und bildet so die Grundlage für die Erkennung von Wörtern. Tools wie CMU Sphinx haben sich in der Vergangenheit stark auf HMMs verlassen.
- Bioinformatik: HMMs werden häufig für die Sequenzanalyse verwendet. Bei der Gensuche können die versteckten Zustände zum Beispiel kodierende Regionen, nicht kodierende Regionen oder bestimmte Genstrukturen (wie Startcodons, Exons, Introns) darstellen. Die Beobachtungen sind die DNA-Basenpaare (A, C, G, T). Das Modell hilft dabei, Genorte innerhalb einer langen DNA-Sequenz zu identifizieren. Software wie HMMER verwendet Profil-HMMs für die Proteinsequenzanalyse und vergleicht Sequenzen mit Datenbanken wie der NCBI Gendatenbank.
- Natürliche Sprachverarbeitung (NLP): Wird für Aufgaben wie das Part-of-Speech-Tagging verwendet, bei dem verborgene Zustände grammatikalische Tags (Substantiv, Verb, Adjektiv) und Beobachtungen die Wörter in einem Satz sind. Wird auch bei der Named Entity Recognition (NER) eingesetzt.
- Computer Vision (CV): Wird bei der Gestenerkennung, der Aktivitätserkennung aus Videos und manchmal auch bei der Objektverfolgung eingesetzt, obwohl sie oft von Methoden wie Kalman-Filtern oder Deep-Learning-Ansätzen abgelöst wird.
- Finanzen: Modellierung von Marktregimen (z.B. Bullen- und Bärenmärkte) als verborgene Zustände auf der Grundlage beobachtbarer Finanzindikatoren.
- Medizinische Bildanalyse: Die Analyse von Sequenzen medizinischer Bilder oder Signale im Zeitverlauf.
Vergleich mit verwandten Konzepten
Es ist wichtig, HMMs von anderen Sequenzmodellen zu unterscheiden:
Während neuere Deep-Learning-Methoden oft State-of-the-Art-Ergebnisse erzielen, bleiben HMMs aufgrund ihrer Interpretierbarkeit (explizite Zustände und Wahrscheinlichkeiten) und Effektivität wertvoll, insbesondere wenn die Trainingsdaten begrenzt sind oder Fachwissen in die Modellstruktur einfließen kann. Das Verständnis grundlegender Konzepte wie HMMs bietet einen wertvollen Kontext in der breiteren ML-Landschaft, selbst wenn man Plattformen wie Ultralytics HUB nutzt, die in erster Linie die Entwicklung und den Einsatz von DL-Modellen wie YOLOv8 oder YOLO11.