Glosario

Modelo de Markov Oculto (HMM)

Descubre los Modelos Ocultos de Markov (HMM), sus principios, sus aplicaciones en el reconocimiento del habla, la bioinformática y la IA, y cómo infieren estados ocultos.

Entrena los modelos YOLO simplemente
con Ultralytics HUB

Saber más

Un Modelo de Markov Oculto (MMO) es un modelo estadístico utilizado para describir sistemas que transitan entre estados a lo largo del tiempo. En los HMM, la secuencia de estados por los que pasa el sistema no es directamente observable (está "oculta"), pero puede inferirse a partir de una secuencia de salidas o emisiones observables producidas por cada estado. Los HMM son especialmente potentes para el modelado de datos secuenciales y el análisis de series temporales en diversos dominios dentro de la Inteligencia Artificial (IA) y el Aprendizaje Automático (AM). Pertenecen a una clase de modelos conocidos como modelos gráficos probabilísticos, que proporcionan un marco para manejar la incertidumbre en los sistemas dinámicos.

Conceptos básicos

Los HMM se definen mediante dos procesos estocásticos (aleatorios) principales:

  1. Estados ocultos: Una cadena de Markov subyacente e inobservable de estados. El sistema transita entre estos estados ocultos según probabilidades específicas. El supuesto central es la propiedad de Markov: la probabilidad de transición al siguiente estado sólo depende del estado actual, no de la secuencia de estados que lo precedieron.
  2. Emisiones observables: Cada estado oculto genera una salida o emisión observable basada en una determinada distribución de probabilidad. Estas emisiones son los datos que observamos realmente.

El modelo se caracteriza por:

  • Estados: Un conjunto finito de estados ocultos.
  • Observaciones: Conjunto finito de emisiones u observaciones posibles.
  • Probabilidades de transición: Las probabilidades de pasar de un estado oculto a otro.
  • Probabilidades de emisión: Las probabilidades de observar una emisión concreta dado que el sistema se encuentra en un estado oculto específico.
  • Distribución del estado inicial: Las probabilidades de que el sistema comience en cada estado oculto.

Cómo funcionan los modelos de Markov ocultos

Trabajar con HMM suele implicar enfrentarse a tres problemas fundamentales, a menudo abordados mediante algoritmos específicos detallados en tutoriales como el de Rabiner:

  1. Problema de evaluación: Dado un HMM y una secuencia de observaciones, ¿cuál es la probabilidad de que las observaciones hayan sido generadas por el modelo? (Se resuelve utilizando el algoritmo Forward).
  2. Problema de descodificación: Dado un HMM y una secuencia de observaciones, ¿cuál es la secuencia más probable de estados ocultos que produjo esas observaciones? (Se resuelve mediante el algoritmo de Viterbi).
  3. Problema de aprendizaje: dada una secuencia de observaciones (o múltiples secuencias), ¿cómo podemos ajustar los parámetros del HMM (probabilidades de transición y emisión) para que se ajusten lo mejor posible a los datos observados? (A menudo se resuelve mediante el algoritmo de Baum-Welch, una instancia del algoritmo de maximización de expectativas). Esto es crucial para el entrenamiento del modelo.

Aplicaciones en el mundo real

Los HMM se han aplicado con éxito en numerosos campos:

  • Reconocimiento de voz: Se trata de una aplicación clásica. Los estados ocultos pueden representar fonemas (unidades básicas del sonido), mientras que las observaciones son características acústicas extraídas de la señal del habla. El HMM decodifica la secuencia más probable de fonemas dado el audio, formando la base para reconocer palabras. Históricamente, herramientas como CMU Sphinx se han basado en gran medida en los HMM.
  • Bioinformática: Los HMM se utilizan ampliamente para el análisis de secuencias. Por ejemplo, en la búsqueda de genes, los estados ocultos pueden representar regiones codificantes, regiones no codificantes o estructuras genéticas específicas (como codones de inicio, exones, intrones). Las observaciones son los pares de bases del ADN (A, C, G, T). El modelo ayuda a identificar las ubicaciones de los genes dentro de una secuencia larga de ADN. Los programas informáticos como HMMER utilizan HMM de perfiles para el análisis de secuencias de proteínas, comparando secuencias con bases de datos como la base de datos de genes del NCBI.
  • Procesamiento del Lenguaje Natural (PLN): Se utiliza para tareas como el etiquetado de partes del discurso, donde los estados ocultos son etiquetas gramaticales (sustantivo, verbo, adjetivo) y las observaciones son las palabras de una frase. También se aplica en el Reconocimiento de Entidades Nombradas (REN).
  • Visión por ordenador (CV): Se aplica en el reconocimiento de gestos, el reconocimiento de actividades a partir de vídeo y, a veces históricamente, en el seguimiento de objetos, aunque a menudo ha sido sustituido por métodos como los filtros de Kalman o los enfoques de aprendizaje profundo.
  • Finanzas: Modelización de regímenes de mercado (por ejemplo, mercados alcistas frente a bajistas) como estados ocultos basados en indicadores financieros observables.
  • Análisis de imágenes médicas: Análisis de secuencias de imágenes o señales médicas a lo largo del tiempo.

Comparación con conceptos afines

Es importante distinguir los HMM de otros modelos de secuencias:

Aunque los métodos de aprendizaje profundo más recientes suelen lograr resultados de vanguardia, los HMM siguen siendo valiosos por su interpretabilidad (estados y probabilidades explícitos) y eficacia, especialmente cuando los datos de entrenamiento son limitados o se puede incorporar el conocimiento del dominio a la estructura del modelo. Comprender conceptos fundamentales como los HMM proporciona un contexto valioso en el panorama más amplio del ML, incluso cuando se utilizan plataformas como Ultralytics HUB, que facilitan principalmente el desarrollo y despliegue de modelos de DL como YOLOv8 o YOLO11.

Leer todo