Глоссарий

Скрытая марковская модель (HMM)

Узнай о скрытых марковских моделях (HMM), их принципах, применении в распознавании речи, биоинформатике и искусственном интеллекте, а также о том, как они выводят скрытые состояния.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Скрытые марковские модели (HMM) - это тип статистической модели, используемый в машинном обучении для описания систем, которые развиваются с течением времени. Представь себе систему, в которой ты можешь наблюдать определенные выходы, но базовые состояния, управляющие этими выходами, скрыты. HMM предназначены для вывода этих скрытых состояний на основе последовательности наблюдаемых выходов. Это делает их особенно полезными в сценариях, где данные поступают последовательно, а истинное состояние системы не поддается прямому наблюдению.

Основные понятия скрытых марковских моделей

В основе HMM лежат два ключевых компонента: скрытые состояния и наблюдения. Скрытые состояния - это ненаблюдаемые факторы, которые влияют на поведение системы. Считай, что это внутренние процессы или условия, которые не поддаются прямому измерению. Наблюдения, с другой стороны, - это точки данных, которые мы можем увидеть или измерить, и которые вероятностно связаны со скрытыми состояниями.

HMM работают в соответствии с двумя фундаментальными предположениями:

  • Марковское допущение: Текущее скрытое состояние зависит только от предыдущего скрытого состояния, а не от всей истории состояний. Это свойство "без памяти" упрощает модель и делает вычисления выполнимыми. Например, при предсказании погоды с помощью HMM сегодняшняя погода (скрытое состояние) зависит только от вчерашней, а не от погоды недельной давности.
  • Допущение независимости наблюдений: Текущее наблюдение зависит только от текущего скрытого состояния и не зависит от прошлых скрытых состояний и прошлых наблюдений с учетом текущего скрытого состояния. Продолжая пример с погодой, увидишь ли ты сегодня дождь (наблюдение), зависит только от сегодняшнего состояния погоды (скрытое состояние, например, "дождливо", "солнечно"), но не от вчерашнего состояния погоды.

Эти предположения позволяют нам определить HMM, используя несколько ключевых распределений вероятностей:

  • Вероятности перехода: Эти вероятности определяют вероятность перехода из одного скрытого состояния в другое. Например, вероятность перехода из состояния "солнечно" в состояние "облачно" в нашем примере с погодой.
  • Вероятности выбросов: Эти вероятности определяют вероятность наблюдения определенного вывода при скрытом состоянии. Например, вероятность наблюдения "дождя", когда скрытое состояние - "дождливый".
  • Вероятности начальных состояний: Они определяют вероятности старта в каждом из возможных скрытых состояний в начале последовательности.

Чтобы понять систему, HMM решают три основные задачи:

  • Оценка: Учитывая модель и последовательность наблюдений, вычисли вероятность того, что эта последовательность была сгенерирована моделью. Часто эту задачу решают с помощью алгоритма Forward.
  • Декодирование: Учитывая модель и последовательность наблюдений, найди наиболее вероятную последовательность скрытых состояний, которая привела к получению наблюдений. Для этого обычно используется алгоритм Витерби.
  • Обучение: Получив последовательность наблюдений, узнай параметры модели (вероятности перехода, выброса и начальные вероятности), которые лучше всего объясняют наблюдаемые данные. Для этого используется алгоритм Баума-Уэлча (разновидность Expectation-Maximization).

Применение скрытых марковских моделей в искусственном интеллекте

ЧММ успешно применяются в различных областях искусственного интеллекта, особенно там, где задействованы последовательные данные и скрытые процессы. Вот несколько ярких примеров:

  • Распознавание речи: Одно из самых классических и успешных применений HMM - это системы распознавания речи. В речи акустические сигналы (наблюдения) генерируются последовательностью произносимых фонем или слов (скрытые состояния). HMM используются для моделирования вероятностных отношений между фонемами и акустическими признаками, что позволяет системам транскрибировать устную речь в текст. Современные системы распознавания речи часто используют более сложные модели глубокого обучения, но ЧММ заложили фундаментальную роль в этой области и до сих пор используются в гибридных подходах.
  • Биоинформатика: HMM широко используются в биоинформатике для анализа биологических последовательностей, таких как последовательности ДНК и белков. Например, при предсказании генов последовательность нуклеотидов в ДНК (наблюдения) может быть смоделирована, чтобы сделать вывод о лежащих в основе гена структурах (скрытых состояниях), таких как кодирующие и некодирующие регионы. HMM могут выявлять паттерны и мотивы в этих последовательностях, помогая понять функцию и структуру генов и белков.

Помимо этих основных применений, HMM можно встретить в:

  • Обработка естественного языка (NLP): Для таких задач, как тегирование частей речи, где слова в предложении - это наблюдения, а лежащие в их основе грамматические теги - скрытые состояния. Ты можешь узнать больше об обработке естественного языка (NLP) и ее разнообразных применениях в ИИ.
  • Финансовое моделирование: Для анализа данных финансовых временных рядов, когда на наблюдаемые цены акций влияют скрытые режимы рынка (например, бычий рынок, медвежий рынок). Анализ временных рядов - важнейший аспект понимания тенденций изменения данных во времени.
  • Распознавание действий: В компьютерном зрении и сенсорных системах HMM могут распознавать действия человека по последовательностям показаний датчиков или видеокадрам. В то время как Ultralytics YOLO отлично справляется с обнаружением объектов в реальном времени и сегментацией изображений на отдельных кадрах, ЧММ могут добавить временное измерение для понимания последовательностей действий.

Хотя новые методы, такие как рекуррентные нейронные сети (РНС) и трансформаторы, сегодня доминируют во многих задачах моделирования последовательности благодаря своей способности улавливать более дальние зависимости и обрабатывать более сложные паттерны, скрытые марковские модели остаются ценным инструментом, особенно когда на первый план выходят интерпретируемость и вычислительная эффективность, или когда марковское предположение является разумным приближением к основной системе. Они обеспечивают вероятностную основу для понимания последовательных данных и вывода скрытых структур, что делает их краеугольным камнем в области машинного обучения и искусственного интеллекта.

Читать полностью