Kiểm tra màu xanh lá cây
Liên kết được sao chép vào khay nhớ tạm

Tất cả những gì bạn cần biết về AI có thể giải thích (XAI)

Khám phá cách Explainable AI (XAI) xây dựng lòng tin bằng cách đưa ra các dự đoán AI minh bạch và đáng tin cậy trong chăm sóc sức khỏe, an ninh, lái xe tự hành, v.v.

Bạn đã bao giờ thấy phản hồi từ một công cụ trí tuệ nhân tạo (AI) như ChatGPT và tự hỏi làm sao lại đi đến kết luận đó? Sau đó, bạn đã gặp mối quan tâm về "hộp đen" của AI. Đây là thuật ngữ ám chỉ sự thiếu rõ ràng về cách các mô hình AI xử lý và phân tích dữ liệu. Ngay cả các kỹ sư và nhà khoa học AI thường xuyên làm việc với các thuật toán AI tiên tiến cũng có thể thấy khó khăn trong việc hiểu đầy đủ hoạt động bên trong của chúng. Trên thực tế, chỉ có 22% chuyên gia CNTT thực sự hiểu được khả năng của các công cụ AI. 

Sự không chắc chắn xung quanh cách các mô hình AI đưa ra quyết định có thể là rủi ro, đặc biệt là trong các lĩnh vực quan trọng như thị giác máy tính trong chăm sóc sức khỏeAI trong tài chính . Tuy nhiên, đang có những tiến bộ đáng kể để giải quyết những thách thức này và cải thiện tính minh bạch.

Cụ thể, AI có thể giải thích (XAI) chỉ tập trung vào việc giải quyết mối quan tâm này. Nói một cách đơn giản, đó là một tập hợp các quy trình và phương pháp giúp người dùng hiểu và tin tưởng vào kết quả hoặc đầu ra do các thuật toán học máy phức tạp đưa ra. 

XAI có thể giúp các nhà phát triển đảm bảo rằng các hệ thống AI đang hoạt động như mong đợi. Nó cũng có thể giúp các công ty AI đáp ứng các tiêu chuẩn quy định . Trong bài viết này, chúng ta sẽ khám phá AI có thể giải thích được và nhiều trường hợp sử dụng của nó. Hãy bắt đầu nào!

Tầm quan trọng của AI có thể giải thích được

Khả năng giải thích là chìa khóa khi làm việc với AI. Điều này đặc biệt đúng khi nói đến lĩnh vực phụ của AI, thị giác máy tính , được sử dụng rộng rãi trong các ứng dụng trong các ngành công nghiệp như chăm sóc sức khỏe. Khi sử dụng các mô hình thị giác trong các ngành công nghiệp nhạy cảm như vậy, điều quan trọng là hoạt động của mô hình phải minh bạch và có thể diễn giải được đối với mọi người. 

Khả năng diễn giải trong các mô hình thị giác máy tính giúp người dùng hiểu rõ hơn về cách dự đoán được đưa ra và logic đằng sau dự đoán đó. Tính minh bạch bổ sung cho điều này bằng cách làm cho hoạt động của mô hình trở nên rõ ràng đối với mọi người bằng cách nêu rõ các hạn chế của mô hình và đảm bảo dữ liệu được sử dụng một cách có đạo đức. Ví dụ, thị giác máy tính có thể giúp các bác sĩ X quang xác định hiệu quả các biến chứng về sức khỏe trong hình ảnh X-quang. 

Hình 1. Chụp X-quang ngực được phân tích bằng Vision AI cho thấy phân loại bệnh lao khỏe mạnh, bệnh nhân đang bị bệnh, bệnh nhân đang hoạt động và bệnh nhân tiềm ẩn.

Tuy nhiên, một hệ thống thị giác chỉ chính xác thôi là chưa đủ. Hệ thống cũng cần có khả năng giải thích các quyết định của mình. Giả sử hệ thống có thể hiển thị những phần nào của hình ảnh dẫn đến kết luận của nó - thì bất kỳ đầu ra nào cũng sẽ rõ ràng hơn. Mức độ minh bạch như vậy sẽ giúp các chuyên gia y tế kiểm tra lại các phát hiện của họ và đảm bảo rằng việc chăm sóc bệnh nhân đáp ứng các tiêu chuẩn y tế. 

Một lý do khác khiến khả năng giải thích trở nên thiết yếu là nó khiến các công ty AI phải chịu trách nhiệm và xây dựng lòng tin ở người dùng. AI đáng tin cậy khiến người dùng cảm thấy tự tin rằng các cải tiến AI hoạt động đáng tin cậy, đưa ra quyết định công bằng và xử lý dữ liệu một cách có trách nhiệm

Các kỹ thuật AI có thể giải thích chính trong thị giác máy tính

Bây giờ chúng ta đã thảo luận về lý do tại sao khả năng giải thích lại quan trọng trong thị giác máy tính, hãy cùng xem xét các kỹ thuật XAI chính được sử dụng trong Vision AI.

Bản đồ nổi bật

Mạng nơ-ron là mô hình lấy cảm hứng từ não người, được thiết kế để nhận dạng các mẫu và đưa ra quyết định bằng cách xử lý dữ liệu thông qua các lớp nút (nơ-ron) được kết nối với nhau. Chúng có thể được sử dụng để giải quyết các vấn đề phức tạp về thị giác máy tính với độ chính xác cao. Ngay cả với độ chính xác này, chúng vẫn là hộp đen theo thiết kế. 

Bản đồ độ nổi bật là một kỹ thuật XAI có thể được sử dụng để giúp hiểu được những gì mạng nơ-ron nhìn thấy khi chúng phân tích hình ảnh. Nó cũng có thể được sử dụng để khắc phục sự cố cho các mô hình trong trường hợp chúng không hoạt động như mong đợi. 

Bản đồ độ nổi bật hoạt động bằng cách tập trung vào các phần nào của hình ảnh (pixel) xác định dự đoán của mô hình. Quá trình này rất giống với backpropagation , trong đó mô hình theo dõi ngược từ dự đoán đến đầu vào. Nhưng thay vì cập nhật trọng số của mô hình dựa trên lỗi, chúng ta chỉ xem xét mức độ "quan trọng" của từng pixel đối với dự đoán. Bản đồ độ nổi bật rất hữu ích cho các tác vụ thị giác máy tính như phân loại hình ảnh.

Ví dụ, nếu một mô hình phân loại hình ảnh dự đoán rằng một hình ảnh là của một con chó, chúng ta có thể xem bản đồ nổi bật của nó để hiểu lý do tại sao mô hình nghĩ rằng đó là một con chó. Điều này giúp chúng ta xác định những điểm ảnh nào ảnh hưởng nhiều nhất đến đầu ra. Bản đồ nổi bật sẽ làm nổi bật tất cả các điểm ảnh góp phần vào dự đoán cuối cùng rằng hình ảnh là một con chó.

Hình 2. Góc nhìn cạnh nhau của các hình ảnh đầu vào và bản đồ độ nổi bật của chúng.

Bản đồ kích hoạt lớp (CAM)

Class Activation Mapping là một kỹ thuật XAI khác được sử dụng để hiểu những phần nào của hình ảnh mà mạng nơ-ron tập trung vào khi đưa ra dự đoán phân loại hình ảnh. Nó hoạt động tương tự như bản đồ độ nổi bật nhưng tập trung vào việc xác định các đặc điểm quan trọng trong hình ảnh thay vì các pixel cụ thể. Các đặc điểm là các mẫu hoặc chi tiết, như hình dạng hoặc kết cấu, mà mô hình phát hiện trong hình ảnh.

Các phương pháp như Gradient Weighted Class Activation Mapping (Grad-CAM) và Grad-CAM++ được xây dựng dựa trên cùng một ý tưởng, với một số cải tiến.

Sau đây là cách CAM hoạt động:

  • Trước khi mạng nơ-ron đưa ra quyết định cuối cùng, nó sử dụng một bước gọi là gộp trung bình toàn cục (GAP) để đơn giản hóa thông tin. GAP kết hợp tất cả các pixel trong một mẫu được phát hiện thành một giá trị trung bình duy nhất, tạo ra một bản tóm tắt cho mỗi bản đồ đặc điểm (biểu diễn trực quan của các mẫu được phát hiện).
  • Sau đó, mỗi bản đồ đặc điểm sẽ được gán một trọng số cho biết mức độ quan trọng của nó trong việc dự đoán một lớp nhất định (như "chim" hoặc "mèo").
  • Tuy nhiên, một hạn chế của CAM là bạn có thể cần phải đào tạo lại mô hình để tính toán các trọng số này, việc này có thể tốn thời gian.

Grad-CAM cải thiện điều này bằng cách sử dụng gradient , giống như các tín hiệu cho thấy mức độ ảnh hưởng của từng bản đồ đặc điểm đến dự đoán cuối cùng. Phương pháp này tránh nhu cầu về GAP và giúp dễ dàng xem mô hình tập trung vào điều gì mà không cần đào tạo lại. Grad-CAM++ tiến xa hơn một bước bằng cách chỉ tập trung vào các ảnh hưởng tích cực, giúp kết quả thậm chí còn rõ ràng hơn.

Hình 3. So sánh CAM, Grad-CAM và Grad-CAM++.

Giải thích trái ngược

Giải thích phản thực tế là một yếu tố quan trọng của AI có thể giải thích được. Giải thích phản thực tế liên quan đến việc mô tả một tình huống hoặc kết quả bằng cách xem xét các kịch bản hoặc sự kiện thay thế không xảy ra nhưng có thể đã xảy ra. Nó có thể chứng minh cách thay đổi trong các biến đầu vào cụ thể dẫn đến các kết quả khác nhau, chẳng hạn như: "Nếu X không xảy ra, Y sẽ không xảy ra."

Khi nói đến AI và thị giác máy tính, một lời giải thích phản thực tế xác định sự thay đổi nhỏ nhất cần thiết trong đầu vào (chẳng hạn như hình ảnh hoặc dữ liệu ) để khiến mô hình AI tạo ra kết quả cụ thể khác. Ví dụ, việc thay đổi màu sắc của một vật thể trong hình ảnh có thể thay đổi dự đoán của mô hình phân loại hình ảnh từ "mèo" thành "chó".

Một ví dụ hay khác là thay đổi góc hoặc ánh sáng trong hệ thống nhận dạng khuôn mặt . Điều này có thể khiến mô hình xác định một cá nhân khác, cho thấy những thay đổi nhỏ trong đầu vào có thể ảnh hưởng đến dự đoán của mô hình như thế nào.

Cách đơn giản nhất để tạo ra những lời giải thích này là thông qua thử nghiệm và sai sót: bạn có thể thay đổi ngẫu nhiên các phần của đầu vào (như các tính năng của hình ảnh hoặc dữ liệu) cho đến khi mô hình AI cung cấp cho bạn kết quả mong muốn. Các phương pháp khác bao gồm các phương pháp tiếp cận không phụ thuộc vào mô hình, sử dụng các kỹ thuật tối ưu hóa và tìm kiếm để tìm ra những thay đổi, và các phương pháp tiếp cận dành riêng cho mô hình, dựa vào các thiết lập hoặc tính toán nội bộ để xác định những thay đổi cần thiết.

Ứng dụng của AI có thể giải thích trong thị giác máy tính

Bây giờ chúng ta đã khám phá XAI là gì và các kỹ thuật chính của nó, chúng ta có thể tìm hiểu cách sử dụng nó trong cuộc sống thực. XAI có nhiều ứng dụng đa dạng trong nhiều lĩnh vực. Hãy cùng tìm hiểu một số trường hợp sử dụng làm nổi bật tiềm năng của nó:

  • Hệ thống bảo mật : XAI có thể được sử dụng để tăng cường hệ thống bảo mật bằng cách phát hiện hình ảnh biến dạng trong các giấy tờ tùy thân như hộ chiếu và giấy phép lái xe. Điều này đảm bảo tính xác thực của hình ảnh, tăng cường quy trình xác minh danh tính và ngăn chặn các hoạt động gian lận trong các ứng dụng nhạy cảm.
Hình 4. XAI hoạt động như thế nào để phát hiện hình ảnh biến dạng.

  • Lái xe tự động : Hiểu được khả năng và hạn chế của hệ thống Vision AI trên xe tự lái có thể là một phần quan trọng trong quá trình thử nghiệm xe trước khi triển khai trên đường thực tế. XAI có thể giúp các công ty ô tô xác định và giải quyết các vấn đề rõ ràng hơn.
  • Hệ thống pháp lý : Hệ thống phân tích tài liệu hỗ trợ tầm nhìn ngày càng được sử dụng nhiều hơn trong quá trình ra quyết định của tòa án. XAI hỗ trợ kết quả công bằng và cho phép xem xét kỹ lưỡng các phán quyết tự động. Nó cũng giúp các chuyên gia pháp lý hiểu cách mô hình AI đưa ra quyết định của mình.
  • Giám sát động vật hoang dã : Bẫy ảnh thường được sử dụng để giám sát động vật hoang dã và thu thập dữ liệu về các loài động vật. XAI có thể được sử dụng để giải thích cách AI phân loại các loài này trong hình ảnh. Bằng cách đó, các nỗ lực bảo tồn có thể đáng tin cậy và chính xác hơn.

Những điểm chính về AI có thể giải thích

AI có thể giải thích giúp dễ hiểu hơn về cách thức hoạt động của các hệ thống AI và lý do tại sao chúng đưa ra một số quyết định nhất định. Tính minh bạch về các mô hình AI xây dựng lòng tin và trách nhiệm giải trình. Kiến thức là sức mạnh và giúp các sáng kiến AI được sử dụng có trách nhiệm hơn. Trong các lĩnh vực quan trọng như chăm sóc sức khỏe, an ninh, lái xe tự động và hệ thống pháp lý, XAI có thể được sử dụng để giúp các nhà phát triển và người dùng hiểu các dự đoán của AI, xác định lỗi và đảm bảo sử dụng công bằng và có đạo đức. Bằng cách làm cho AI minh bạch hơn, XAI thu hẹp khoảng cách giữa công nghệ và lòng tin của con người, giúp AI an toàn hơn và đáng tin cậy hơn cho các ứng dụng trong thế giới thực.

Để tìm hiểu thêm, hãy truy cập kho lưu trữ GitHub của chúng tôi và tham gia cộng đồng của chúng tôi. Khám phá các ứng dụng AI trong xe tự láinông nghiệp trên các trang giải pháp của chúng tôi. 🚀

Logo FacebookBiểu trưng TwitterBiểu trưng LinkedInBiểu tượng sao chép liên kết

Đọc thêm trong danh mục này

Hãy xây dựng tương lai
của AI cùng nhau!

Bắt đầu hành trình của bạn với tương lai của machine learning