Sự thiên vị trong Trí tuệ nhân tạo (AI) đề cập đến các lỗi có hệ thống và có thể lặp lại trong một hệ thống AI dẫn đến kết quả không công bằng, lệch lạc hoặc phân biệt đối xử, thường thiên vị một nhóm hơn những nhóm khác dựa trên các đặc điểm tùy ý. Sự thiên vị này không bắt nguồn từ bản thân mô hình AI hành động có ác ý, mà xuất hiện khi mô hình học và sao chép các giá trị ngầm định, bất bình đẳng lịch sử hoặc mất cân bằng thống kê có trong dữ liệu đào tạo , thiết kế thuật toán hoặc các lựa chọn do con người đưa ra trong quá trình phát triển và triển khai. Việc giải quyết sự thiên vị của AI là nền tảng cho sự phát triển có đạo đức của AI , tác động nghiêm trọng đến hiệu suất, độ tin cậy và niềm tin của công chúng đối với mô hình, đặc biệt là trong các lĩnh vực nhạy cảm như thị giác máy tính (CV) .
Nguồn gốc của sự thiên vị Ai
Sự thiên vị của AI không phải là một đặc tính vốn có của AI mà bắt nguồn từ các quy trình và dữ liệu của con người được sử dụng để xây dựng các hệ thống này. Hiểu được nguồn gốc là chìa khóa để giảm thiểu:
- Sai lệch tập dữ liệu : Đây là nguồn phổ biến nhất, phát sinh khi dữ liệu được sử dụng để đào tạo không đại diện cho dân số hoặc bối cảnh thực tế nơi mô hình sẽ được triển khai. Điều này bao gồm sai lệch lịch sử (phản ánh định kiến xã hội trong quá khứ), sai lệch đo lường (thu thập dữ liệu không nhất quán giữa các nhóm), sai lệch biểu diễn (lấy mẫu thiếu một số nhóm nhất định) và các vấn đề trong việc dán nhãn dữ liệu khi chú thích phản ánh quan điểm chủ quan. Việc hiểu tác động của sai lệch tập dữ liệu là rất quan trọng đối với AI thị giác.
- Thiên kiến thuật toán : Thiên kiến có thể được đưa vào bởi chính thuật toán, chẳng hạn như khi thuật toán tối ưu hóa cho một số liệu vô tình gây bất lợi cho một nhóm cụ thể hoặc khi thiết kế mô hình đưa ra các giả định không đúng với tất cả mọi người. Ví dụ, một số lựa chọn tối ưu hóa nhất định có thể ưu tiên độ chính xác tổng thể với cái giá phải trả là sự công bằng cho các nhóm thiểu số.
- Thành kiến của con người: Thành kiến có ý thức hoặc vô thức của nhà phát triển và người dùng có thể ảnh hưởng đến thiết kế mô hình, lựa chọn dữ liệu, diễn giải kết quả và quyết định triển khai, đưa sự bất công vào vòng đời AI.
Ví dụ thực tế
Sự thiên vị trong AI có thể biểu hiện ở nhiều ứng dụng khác nhau, đôi khi gây ra hậu quả nghiêm trọng:
- Hệ thống nhận dạng khuôn mặt : Nhiều nghiên cứu, bao gồm cả thử nghiệm mở rộng của NIST , đã chỉ ra rằng một số công nghệ nhận dạng khuôn mặt có tỷ lệ chính xác thấp hơn đáng kể đối với những cá nhân từ một số nhóm nhân khẩu học nhất định (ví dụ: phụ nữ da sẫm màu) so với những nhóm khác (ví dụ: nam giới da sáng màu). Sự chênh lệch này thường bắt nguồn từ các tập dữ liệu đào tạo không đại diện và có thể dẫn đến nhận dạng sai và đối xử không bình đẳng trong các ứng dụng từ mở khóa điện thoại đến thực thi pháp luật. Các tổ chức như Liên đoàn Công lý Thuật toán đang tích cực làm việc để nêu bật và chống lại những thành kiến như vậy.
- AI trong chăm sóc sức khỏe : Các mô hình AI được sử dụng cho các nhiệm vụ như phân tích hình ảnh y tế hoặc dự đoán rủi ro của bệnh nhân có thể thừa hưởng các sai lệch từ dữ liệu sức khỏe trong quá khứ. Nếu một công cụ chẩn đoán chủ yếu được đào tạo trên dữ liệu từ một nhóm dân số, nó có thể hoạt động kém chính xác hơn đối với các nhóm chưa được đại diện, có khả năng dẫn đến chẩn đoán chậm trễ hoặc khuyến nghị điều trị không phù hợp. Nghiên cứu nêu bật các rủi ro về sai lệch trong các thuật toán lâm sàng nếu tính công bằng không được xem xét tích cực.
Phân biệt sự thiên vị trong AI với các khái niệm liên quan
Điều quan trọng là phải phân biệt sự thiên vị trong AI, chủ yếu liên quan đến tính công bằng và ý nghĩa đạo đức, với các khái niệm liên quan khác trong học máy (ML) :
- Sai lệch tập dữ liệu : Mặc dù là nguồn chính của sai lệch AI, sai lệch tập dữ liệu cụ thể đề cập đến bản chất không đại diện của chính dữ liệu. Sai lệch AI là kết quả rộng hơn của sự bất công có hệ thống, có thể bắt nguồn từ sai lệch tập dữ liệu, lựa chọn thuật toán hoặc yếu tố con người.
- Độ lệch thuật toán : Điều này đề cập cụ thể đến độ lệch do quá trình thiết kế hoặc tối ưu hóa mô hình đưa vào, trái ngược với độ lệch chỉ xuất phát từ dữ liệu. Đây là một nguồn tiềm năng khác góp phần vào độ lệch AI tổng thể.
- Đánh đổi giữa độ lệch và phương sai : Đây là một khái niệm thống kê cốt lõi trong ML mô tả sự căng thẳng giữa tính đơn giản của mô hình (độ lệch cao, có khả năng dẫn đến sự phù hợp không đầy đủ ) và tính phức tạp của mô hình (phương sai cao, có khả năng dẫn đến sự phù hợp quá mức ). Mặc dù "độ lệch" được sử dụng ở đây, nhưng nó đề cập đến lỗi mô hình do các giả định quá đơn giản, khác với các hàm ý về mặt đạo đức hoặc công bằng của độ lệch AI.
Giải quyết vấn đề thiên vị Ai
Giảm thiểu sự thiên vị của AI là một quá trình liên tục đòi hỏi cách tiếp cận đa chiều trong suốt vòng đời phát triển AI:
- Quản lý và tăng cường dữ liệu: Chủ động thu thập các tập dữ liệu đa dạng và đại diện. Sử dụng các kỹ thuật như tăng cường dữ liệu và tạo dữ liệu tổng hợp tiềm năng để cân bằng biểu diễn giữa các nhóm khác nhau. Khám phá các tài nguyên như bộ sưu tập Dữ liệu Ultralytics cho các nguồn dữ liệu đa dạng.
- Đo lường và kiểm toán tính công bằng: Xác định và đo lường tính công bằng bằng cách sử dụng các số liệu thích hợp trong quá trình đánh giá mô hình . Kiểm toán thường xuyên các mô hình để tìm hiệu suất thiên vị giữa các nhóm con khác nhau trước và sau khi triển khai.
- Lựa chọn và sửa đổi thuật toán: Chọn các thuật toán ít có khả năng sai lệch hoặc sửa đổi các thuật toán hiện có để kết hợp các ràng buộc về tính công bằng.
- Tính minh bạch và khả năng giải thích: Sử dụng các kỹ thuật AI có thể giải thích (XAI) để hiểu hành vi của mô hình và xác định các nguồn sai lệch tiềm ẩn. Tìm hiểu thêm về các khái niệm XAI .
- Khung đạo đức và quản trị: Triển khai các nguyên tắc đạo đức AI và cấu trúc quản trị mạnh mẽ, tham chiếu các khung như Khung quản lý rủi ro AI của NIST để hướng dẫn phát triển và triển khai.
Các nền tảng như Ultralytics HUB cung cấp các công cụ hỗ trợ phát triển các hệ thống AI công bằng hơn bằng cách cho phép quản lý tập dữ liệu cẩn thận, tạo điều kiện đào tạo mô hình tùy chỉnh và cho phép giám sát hiệu suất mô hình Ultralytics YOLO . Xây dựng nhận thức và nhúng các nguyên tắc Công bằng vào AI (thường được thảo luận trong các diễn đàn như hội nghị ACM FAccT ) là rất quan trọng để tiếp cận phát triển AI có trách nhiệm và tạo ra công nghệ mang lại lợi ích công bằng cho xã hội.