Thuật ngữ

Mô hình Markov ẩn (HMM)

Khám phá Mô hình Markov ẩn (HMM), nguyên lý, ứng dụng của chúng trong nhận dạng giọng nói, tin sinh học và AI, cũng như cách chúng suy ra trạng thái ẩn.

Xe lửa YOLO mô hình đơn giản
với Ultralytics TRUNG TÂM

Tìm hiểu thêm

Mô hình Markov ẩn (HMM) là một mô hình thống kê được sử dụng để mô tả các hệ thống chuyển đổi giữa các trạng thái theo thời gian, trong đó trình tự các trạng thái không thể quan sát trực tiếp (nó "ẩn"), nhưng có thể suy ra từ trình tự các đầu ra hoặc phát xạ có thể quan sát được. HMM đặc biệt mạnh mẽ để mô hình hóa dữ liệu tuần tự và chuỗi thời gian trên nhiều miền khác nhau trong Trí tuệ nhân tạo (AI)Học máy (ML) . Chúng thuộc về một lớp mô hình được gọi là mô hình đồ họa xác suất.

Các khái niệm cốt lõi

HMM được xác định bởi hai thành phần chính:

  1. Trạng thái ẩn: Một tập hợp các trạng thái không thể quan sát được mà hệ thống có thể ở trong. Quá trình chuyển đổi giữa các trạng thái này theo một số xác suất nhất định. Giả định cốt lõi là thuộc tính Markov : xác suất chuyển đổi sang trạng thái tiếp theo chỉ phụ thuộc vào trạng thái hiện tại, không phụ thuộc vào chuỗi các trạng thái trước đó.
  2. Quan sát (Phát xạ): Một tập hợp các đầu ra hoặc ký hiệu có thể quan sát được được tạo ra hoặc "phát ra" theo xác suất bởi mỗi trạng thái ẩn. Xác suất phát ra một quan sát cụ thể chỉ phụ thuộc vào trạng thái ẩn hiện tại.

Mô hình được đặc trưng bởi:

  • Xác suất chuyển đổi: Khả năng di chuyển từ trạng thái ẩn này sang trạng thái ẩn khác.
  • Xác suất phát xạ: Xác suất quan sát một đầu ra cụ thể khi hệ thống ở trạng thái ẩn cụ thể.
  • Xác suất trạng thái ban đầu: Xác suất hệ thống bắt đầu ở mỗi trạng thái ẩn.

Mô hình Markov ẩn hoạt động như thế nào

Làm việc với HMM thường liên quan đến việc giải quyết ba vấn đề cơ bản, thường được giải quyết bằng các thuật toán cụ thể được trình bày chi tiết trong [các hướng dẫn như của Rabiner](https://web.ece.ucsb.edu/Faculty/Rabiner/ece259/Reprints/tutorial on hmm and applications.pdf):

  1. Khả năng xảy ra: Tính toán khả năng của một chuỗi quan sát được với các tham số mô hình. Điều này giúp đánh giá mức độ phù hợp của mô hình với dữ liệu.
  2. Giải mã: Tìm chuỗi trạng thái ẩn có khả năng xảy ra cao nhất tạo ra chuỗi quan sát nhất định (thường sử dụng thuật toán Viterbi).
  3. Học tập: Ước tính các tham số mô hình (chuyển đổi, phát xạ và xác suất ban đầu) từ một tập hợp các chuỗi quan sát (thường sử dụng thuật toán Baum-Welch, một loại Kỳ vọng-Tối đa hóa).

Ứng dụng trong thế giới thực

HMM đã được ứng dụng thành công trong nhiều lĩnh vực:

  1. Nhận dạng giọng nói: Các trạng thái ẩn có thể biểu diễn các âm vị (đơn vị cơ bản của âm thanh), trong khi các quan sát là các đặc điểm âm thanh được trích xuất từ tín hiệu giọng nói. HMM mô hình hóa cách các âm vị chuyển đổi và tạo ra âm thanh, cho phép các hệ thống như CMU Sphinx chuyển đổi ngôn ngữ nói thành văn bản. Đây là một ứng dụng cổ điển trong Xử lý ngôn ngữ tự nhiên (NLP) . Khám phá thêm về Nhận dạng giọng nói .
  2. Tin sinh học (Tìm kiếm gen): Các trạng thái ẩn có thể biểu diễn các vùng chức năng của DNA (ví dụ: exon mã hóa, intron không mã hóa) và các quan sát là các cặp bazơ DNA (A, C, G, T). HMM giúp xác định cấu trúc gen trong các chuỗi DNA dài, được sử dụng bởi các công cụ như HMMER và đóng góp vào các nguồn tài nguyên như cơ sở dữ liệu gen NCBI . Điều này liên quan đến các ứng dụng rộng hơn trong phân tích hình ảnh y tế, nơi nhận dạng mẫu là chìa khóa.

Các ứng dụng khác bao gồm gắn thẻ loại giọng nói trong NLP, nhận dạng cử chỉ trong thị giác máy tính và phân tích chuỗi thời gian tài chính.

So sánh với các khái niệm liên quan

Điều quan trọng là phải phân biệt HMM với các mô hình trình tự khác:

  • Quy trình quyết định Markov (MDP): Trong khi cả hai đều liên quan đến trạng thái và chuyển đổi, HMM tập trung vào việc suy ra trạng thái ẩn từ các quan sát. Ngược lại, MDP được sử dụng trong Học tăng cường (RL) để mô hình hóa các quy trình ra quyết định trong đó các trạng thái thường có thể quan sát được và mục tiêu là tìm ra chính sách tối ưu (chuỗi hành động). Tìm hiểu thêm về các nguyên tắc cơ bản của RL từ các nguồn như tài liệu giới thiệu của DeepMind .
  • Mạng nơ-ron hồi quy (RNN): Cả HMM và RNN (bao gồm các biến thể như LSTM ) đều mô hình hóa dữ liệu tuần tự. Tuy nhiên, HMM là các mô hình xác suất với các trạng thái và chuyển đổi rõ ràng, có thể diễn giải dựa trên các cấu trúc được xác định trước. RNN, một phần của Học sâu (DL) , học các biểu diễn trạng thái ngầm định thông qua các kết nối mạng và thường mạnh hơn đối với các mẫu phức tạp nhưng ít có thể diễn giải hơn. Hiểu về LSTM cung cấp cái nhìn sâu sắc về các cơ chế RNN. Các mô hình như Ultralytics YOLO tận dụng DL cho các tác vụ như theo dõi đối tượng , cũng xử lý các chuỗi nhưng sử dụng các kỹ thuật cơ bản khác nhau.

Trong khi các phương pháp học sâu mới hơn thường đạt được kết quả tiên tiến, HMM vẫn có giá trị vì khả năng diễn giải và hiệu quả của chúng, đặc biệt là khi dữ liệu bị hạn chế hoặc kiến thức về miền có thể được đưa vào cấu trúc mô hình. Các công cụ và nền tảng như Ultralytics HUB thường tập trung vào các mô hình DL nhưng việc hiểu các khái niệm cơ bản như HMM cung cấp bối cảnh có giá trị trong bối cảnh ML rộng hơn.

Đọc tất cả