Ảo giác (trong LLM)
Khám phá nguyên nhân và rủi ro của ảo giác AI trong LLM. Tìm hiểu cách giảm thiểu sai sót thực tế bằng cách sử dụng RAG, RLHF và tiếp đất. Ultralytics YOLO26.
Trong lĩnh vực Trí tuệ Nhân tạo (AI) , ảo giác đề cập đến hiện tượng một Mô hình Ngôn ngữ Lớn (LLM) tạo ra nội dung nghe có vẻ tự tin và đúng cú pháp nhưng lại không chính xác về mặt thực tế, vô nghĩa hoặc không trung thực với dữ liệu đầu vào. Không giống như các lỗi phần mềm thông thường có thể gây ra sự cố hoặc trục trặc hiển thị, một mô hình ảo giác hoạt động như một kẻ bịa đặt đầy thuyết phục, trình bày thông tin sai lệch với cùng độ tin cậy như các sự kiện hợp lệ. Điều này đặt ra những thách thức đáng kể cho các tổ chức triển khai AI tạo sinh trong các lĩnh vực nhạy cảm như chăm sóc sức khỏe, luật pháp và tài chính, nơi tính toàn vẹn dữ liệu là tối quan trọng.
Tại sao ảo giác lại xảy ra?
Để hiểu tại sao các mô hình lại gây ra ảo giác, việc xem xét cách chúng được xây dựng là rất hữu ích. Các mô hình LLM thường dựa trên kiến trúc Transformer , hoạt động như một công cụ dự đoán tinh vi. Thay vì truy vấn cơ sở dữ liệu có cấu trúc gồm các sự kiện đã được xác minh, mô hình dự đoán mã thông báo tiếp theo trong một chuỗi dựa trên xác suất thống kê được suy ra từ dữ liệu huấn luyện của nó.
Có nhiều yếu tố thúc đẩy hành vi này:
-
Dự đoán dựa trên xác suất: Mô hình ưu tiên tính trôi chảy và mạch lạc hơn là tính đúng đắn thực tế. Nếu một chuỗi từ cụ thể có xác suất thống kê cao—ngay cả khi sai về mặt thực tế—mô hình có thể tạo ra nó. Khái niệm này thường được thảo luận trong nghiên cứu về "con vẹt ngẫu nhiên" , nơi các mô hình bắt chước các mẫu ngôn ngữ mà không hiểu ý nghĩa.
-
Vấn đề chất lượng dữ liệu: Nếu kho văn bản khổng lồ được sử dụng để huấn luyện chứa những mâu thuẫn, thông tin lỗi thời hoặc hư cấu, mô hình có thể tái tạo lại những sai sót này.
-
Hiện tượng quên nguồn gốc: Các mô hình tuyến tính (LLM) nén một lượng lớn thông tin thành trọng số mô hình . Trong quá trình này, chúng thường làm mất liên kết với các nguồn cụ thể, dẫn đến "sự bịa đặt" trong đó các khái niệm hoặc sự kiện khác biệt được gộp lại một cách không chính xác.
Các ví dụ thực tế về ảo giác
Ảo giác có thể biểu hiện theo nhiều cách khác nhau, từ những sự tô điểm sáng tạo vô hại đến những sai lầm nghiêm trọng về mặt thực tế:
-
Gian lận pháp lý: Đã có những trường hợp được ghi nhận, trong đó các chuyên gia pháp lý sử dụng trí tuệ nhân tạo (AI) để soạn thảo bản luận cứ, nhưng lại phát hiện ra rằng mô hình này đã bịa đặt ra các vụ kiện và trích dẫn không tồn tại để hỗ trợ cho lập luận của họ.
-
Tạo mã: Các nhà phát triển sử dụng trợ lý AI có thể gặp phải "ảo giác gói phần mềm", trong đó mô hình đề xuất nhập một thư viện phần mềm hoặc gọi một hàm thực sự không tồn tại, chỉ đơn giản vì tên đó tuân theo các quy ước đặt tên tiêu chuẩn.
-
Sai sót về tiểu sử: Khi được hỏi về những cá nhân ít nổi tiếng hơn, các người mẫu có thể tự tin gán cho họ những thành tích, nơi sinh hoặc lịch sử nghề nghiệp không chính xác, dẫn đến việc pha trộn thông tin từ nhiều người khác nhau.
Các chiến lược giảm thiểu
Giảm tần suất ảo giác là một trọng tâm chính của An toàn Trí tuệ Nhân tạo . Các kỹ sư và nhà nghiên cứu sử dụng một số kỹ thuật để xây dựng các mô hình dựa trên thực tế:
-
Tạo câu trả lời dựa trên truy xuất (Retrieval-Augmented Generation - RAG): Phương pháp này kết nối mô hình ngôn ngữ thứ cấp (LLM) với một cơ sở tri thức bên ngoài đáng tin cậy, thường được lập chỉ mục trong cơ sở dữ liệu vector . Bằng cách truy xuất các tài liệu liên quan trước khi tạo câu trả lời, mô hình bị ràng buộc bởi dữ liệu thực tế.
-
Phương pháp gợi ý theo chuỗi suy luận: Kỹ thuật thiết kế gợi ý này khuyến khích mô hình "thể hiện quá trình suy luận" bằng cách chia nhỏ lập luận phức tạp thành các bước trung gian, điều này thường giúp giảm thiểu lỗi logic.
-
Học tăng cường từ phản hồi của con người (RLHF): Trong giai đoạn tinh chỉnh, người đánh giá sẽ xếp hạng các phản hồi của mô hình. Bằng cách phạt những phản hồi ảo tưởng và khen thưởng sự trung thực, mô hình học cách phù hợp hơn với kỳ vọng của con người.
Nền tảng LLM với Thị giác máy tính
Trong các hệ thống AI đa phương thức , việc tạo văn bản có thể dựa trên dữ liệu hình ảnh. Nếu một mô hình ngôn ngữ lập trình (LLM) được yêu cầu mô tả một cảnh, nó có thể tưởng tượng ra những đối tượng không có thật. Bằng cách tích hợp một bộ phát hiện đối tượng có độ chính xác cao như YOLO26 , các nhà phát triển có thể cung cấp cho LLM một danh sách thực tế các đối tượng hiện có, giới hạn nghiêm ngặt đầu ra của nó chỉ ở những phát hiện đã được xác minh.
Sau đây Python Ví dụ này minh họa cách sử dụng ultralytics Gói này dùng để trích xuất một danh sách các đối tượng đã được xác minh, sau đó có thể được sử dụng làm ràng buộc thực tế cho lời nhắc của mô hình ngôn ngữ.
from ultralytics import YOLO
# Load the YOLO26n model (latest generation, efficient and accurate)
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This factual list prevents the LLM from hallucinating items
print(f"Verified Objects for Prompt Context: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
Phân biệt các khái niệm liên quan
Điều quan trọng là phải phân biệt ảo giác với các lỗi AI phổ biến khác:
-
So với thiên kiến trong AI : Thiên kiến đề cập đến sự thành kiến có hệ thống trong kết quả đầu ra (ví dụ: ưu tiên một nhóm nhân khẩu học này hơn nhóm khác), trong khi ảo giác là sự thất bại về độ chính xác thực tế. Một phản hồi có thể không thiên vị nhưng vẫn mang tính ảo giác (ví dụ: "Mặt trăng được làm bằng pho mát").
-
So với hiện tượng quá khớp (Overfitting ): Quá khớp xảy ra khi mô hình ghi nhớ dữ liệu huấn luyện quá sát sao và không thể khái quát hóa cho các dữ liệu đầu vào mới. Hiện tượng ảo giác thường xảy ra khi mô hình cố gắng khái quát hóa quá nhiều vào những lĩnh vực mà nó thiếu dữ liệu.
-
So với phân loại sai: Trong nhận diện đối tượng , việc dán nhãn một chiếc ô tô là xe tải là một lỗi phân loại (vấn đề về độ chính xác), chứ không phải là ảo giác. Ảo giác là hiện tượng đặc thù của việc tạo ra nội dung sai lệch một cách có chủ đích.
Đối với những ai muốn quản lý tập dữ liệu và huấn luyện mô hình với độ toàn vẹn dữ liệu cao để ngăn ngừa lỗi phát sinh, Nền tảng Ultralytics cung cấp các công cụ toàn diện để chú thích và quản lý tập dữ liệu. Hơn nữa, hướng dẫn từ Khung quản lý rủi ro AI của NIST cung cấp các tiêu chuẩn để đánh giá và giảm thiểu những rủi ro này trong môi trường sản xuất.