Глоссарий

Скрытая марковская модель (HMM)

Узнай о скрытых марковских моделях (HMM), их принципах, применении в распознавании речи, биоинформатике и искусственном интеллекте, а также о том, как они выводят скрытые состояния.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Скрытая марковская модель (HMM) - это статистическая модель, используемая для описания систем, которые переходят между состояниями с течением времени, где последовательность состояний не является непосредственно наблюдаемой (она "скрыта"), но может быть выведена из последовательности наблюдаемых выходов или выбросов. HMM особенно эффективны для моделирования последовательных данных и временных рядов в различных областях искусственного интеллекта (AI) и машинного обучения (ML). Они принадлежат к классу моделей, известных как вероятностные графовые модели.

Основные понятия

HMM определяются двумя основными компонентами:

  1. Скрытые состояния: Набор ненаблюдаемых состояний, в которых может находиться система. Процесс переходит между этими состояниями в соответствии с определенными вероятностями. Основным предположением является свойство Маркова: вероятность перехода в следующее состояние зависит только от текущего состояния, а не от последовательности состояний, которые ему предшествовали.
  2. Наблюдения (выбросы): Набор наблюдаемых выходов или символов, которые вероятностно генерируются или "испускаются" каждым скрытым состоянием. Вероятность испускания конкретного наблюдения зависит только от текущего скрытого состояния.

Модель характеризуется:

  • Вероятности перехода: Вероятность перехода из одного скрытого состояния в другое.
  • Вероятности выбросов: Вероятность наблюдения определенного выхода при условии, что система находится в определенном скрытом состоянии.
  • Вероятности начального состояния: Вероятность того, что система начнет работу в каждом скрытом состоянии.

Как работают скрытые марковские модели

Работа с HMM обычно включает в себя решение трех фундаментальных проблем, которые часто решаются с помощью конкретных алгоритмов, подробно описанных в [учебниках, подобных учебнику Рабинера](https://web.ece.ucsb.edu/Faculty/Rabiner/ece259/Reprints/tutorial on hmm and applications.pdf):

  1. Вероятность (Likelihood): Вычисление вероятности наблюдаемой последовательности с учетом параметров модели. Это помогает оценить, насколько хорошо модель соответствует данным.
  2. Декодирование: Нахождение наиболее вероятной последовательности скрытых состояний, которая породила заданную последовательность наблюдений (часто используется алгоритм Витерби).
  3. Обучение: Оценка параметров модели (вероятностей перехода, выброса и начальных вероятностей) из набора наблюдаемых последовательностей (часто с помощью алгоритма Баума-Уэлча, разновидности Expectation-Maximization).

Применение в реальном мире

HMM успешно применяются во многих областях:

  1. Распознавание речи: Скрытые состояния могут представлять собой фонемы (основные единицы звука), а наблюдения - акустические признаки, извлеченные из речевого сигнала. HMM моделируют, как фонемы переходят и производят звуки, позволяя системам вроде CMU Sphinx преобразовывать разговорную речь в текст. Это классическое применение в области обработки естественного языка (NLP). Узнай больше о распознавании речи.
  2. Биоинформатика (поиск генов): Скрытые состояния могут представлять собой функциональные области ДНК (например, кодирующие экзоны, некодирующие интроны), а наблюдения - пары оснований ДНК (A, C, G, T). HMM помогают идентифицировать генные структуры в длинных последовательностях ДНК, используются такими инструментами, как HMMER, и вносят свой вклад в такие ресурсы, как база данных NCBI Gene. Это относится и к более широкому применению в анализе медицинских изображений, где распознавание образов играет ключевую роль.

Среди других применений - тегирование частей речи в NLP, распознавание жестов в компьютерном зрении и анализ финансовых временных рядов.

Сравнение с родственными концепциями

Важно отличать HMM от других моделей последовательности:

  • Марковские процессы принятия решений (МПП): Хотя и те, и другие включают в себя состояния и переходы, ЧММ сосредоточены на выводе скрытых состояний из наблюдений. В отличие от них, MDP используются в Reinforcement Learning (RL) для моделирования процессов принятия решений, где состояния обычно наблюдаемы, а целью является поиск оптимальной политики (последовательности действий). Узнай больше об основах RL из таких ресурсов, как вводные материалы DeepMind.
  • Рекуррентные нейронные сети (РНС): И HMM, и RNN (включая такие варианты, как LSTM) моделируют последовательные данные. Однако ЧММ - это вероятностные модели с явными, интерпретируемыми состояниями и переходами, основанными на заранее определенных структурах. RNNs, часть Deep Learning (DL), учат неявные представления состояний через сетевые связи и часто являются более мощными для сложных паттернов, но менее интерпретируемыми. Понимание LSTMs позволяет понять механизмы RNN. Такие модели, как Ultralytics YOLO используют DL для таких задач, как отслеживание объектов, которые также имеют дело с последовательностями, но используют другие базовые техники.

Хотя новые методы глубокого обучения часто достигают самых современных результатов, HMM по-прежнему ценны своей интерпретируемостью и эффективностью, особенно когда данные ограничены или в структуру модели можно включить знания о домене. Такие инструменты и платформы, как Ultralytics HUB, часто фокусируются на DL-моделях, но понимание основополагающих концепций, таких как HMM, обеспечивает ценный контекст в более широком ландшафте ML.

Читать полностью