Khám phá cách cơ chế chú ý cách mạng hóa AI bằng cách tăng cường NLP và các tác vụ thị giác máy tính như dịch thuật, phát hiện đối tượng, v.v.!
Cơ chế chú ý là một kỹ thuật được sử dụng trong Trí tuệ nhân tạo (AI) và Học máy (ML) mô phỏng sự chú ý nhận thức của con người. Nó cho phép một mô hình tập trung có chọn lọc vào các phần có liên quan nhất của dữ liệu đầu vào—chẳng hạn như các từ cụ thể trong một câu hoặc các vùng trong một hình ảnh—khi đưa ra dự đoán hoặc tạo đầu ra. Thay vì xử lý tất cả các phần đầu vào như nhau, sự tập trung có chọn lọc này cải thiện hiệu suất, đặc biệt là khi xử lý lượng thông tin lớn như chuỗi văn bản dài hoặc hình ảnh có độ phân giải cao. Điều này cho phép các mô hình xử lý các tác vụ phức tạp hiệu quả hơn và là một cải tiến quan trọng được phổ biến bởi bài báo có tính bước ngoặt " Attention Is All You Need ", trong đó giới thiệu kiến trúc Transformer .
Thay vì xử lý toàn bộ chuỗi đầu vào hoặc hình ảnh một cách thống nhất, cơ chế chú ý sẽ gán "điểm chú ý" hoặc trọng số cho các phân đoạn đầu vào khác nhau. Các điểm này cho biết tầm quan trọng hoặc mức độ liên quan của từng phân đoạn liên quan đến nhiệm vụ cụ thể đang thực hiện (ví dụ: dự đoán từ tiếp theo trong câu hoặc phân loại đối tượng trong hình ảnh). Các phân đoạn có điểm cao hơn sẽ nhận được sự tập trung lớn hơn từ mô hình trong quá trình tính toán. Sự phân bổ động này cho phép mô hình ưu tiên thông tin quan trọng ở mỗi bước, dẫn đến kết quả chính xác hơn và có nhận thức theo ngữ cảnh. Điều này trái ngược với các kiến trúc cũ hơn như Mạng nơ-ron hồi quy (RNN) tiêu chuẩn, xử lý dữ liệu theo trình tự và có thể gặp khó khăn trong việc ghi nhớ thông tin từ các phần trước đó của chuỗi dài do các vấn đề như độ dốc biến mất .
Cơ chế chú ý đã trở thành thành phần cơ bản trong nhiều mô hình tiên tiến, tác động đáng kể đến các lĩnh vực như Xử lý ngôn ngữ tự nhiên (NLP) và Thị giác máy tính (CV) . Chúng giúp khắc phục những hạn chế của các mô hình truyền thống trong việc xử lý các phụ thuộc tầm xa và nắm bắt các mối quan hệ phức tạp trong dữ liệu. Các loại chính và khái niệm liên quan bao gồm:
Các mô hình như BERT và GPT phụ thuộc rất nhiều vào sự tự chú ý cho các tác vụ NLP, trong khi Vision Transformers (ViTs) áp dụng khái niệm này cho các tác vụ phân tích hình ảnh như phân loại hình ảnh .
Sẽ rất hữu ích khi phân biệt cơ chế chú ý với các thành phần mạng nơ-ron phổ biến khác:
Cơ chế chú ý là một phần không thể thiếu trong nhiều ứng dụng AI hiện đại:
Các nền tảng như Ultralytics HUB cho phép người dùng đào tạo , xác thực và triển khai các mô hình nâng cao, bao gồm các mô hình kết hợp cơ chế chú ý, thường tận dụng trọng số mô hình được đào tạo trước có sẵn trên các nền tảng như Hugging Face .