Ảo giác đề cập đến hiện tượng mà Mô hình ngôn ngữ lớn (LLM) tạo ra văn bản vô nghĩa, không đúng sự thật hoặc không liên quan đến ngữ cảnh đầu vào được cung cấp, mặc dù có vẻ tự tin và mạch lạc. Những đầu ra này không dựa trên dữ liệu đào tạo của mô hình hoặc thực tế bên ngoài mà thay vào đó là các hiện vật của các quy trình nội bộ của mô hình đang cố gắng dự đoán từ hoặc mã thông báo có khả năng xảy ra tiếp theo. Hiểu được ảo giác là rất quan trọng để phát triển và triển khai các hệ thống Trí tuệ nhân tạo (AI) một cách có trách nhiệm, đặc biệt là những hệ thống được sử dụng để truy xuất thông tin hoặc ra quyết định.
Tại sao ảo giác xảy ra
LLM, thường được xây dựng trên các kiến trúc như Transformer , về cơ bản là các mô hình xác suất. Chúng học các mẫu và mối quan hệ từ lượng lớn dữ liệu văn bản trong quá trình đào tạo. Tuy nhiên, chúng thiếu sự hiểu biết hoặc ý thức thực sự. Ảo giác có thể phát sinh từ một số yếu tố:
- Giới hạn dữ liệu đào tạo: Mô hình có thể đã được đào tạo trên dữ liệu nhiễu, sai lệch hoặc không đầy đủ, dẫn đến việc tạo ra các tuyên bố nghe có vẻ hợp lý nhưng sai. Chất lượng dữ liệu đào tạo ảnh hưởng đáng kể đến độ tin cậy của đầu ra.
- Kiến trúc mô hình: Bản chất vốn có của dự đoán trình tự có thể khiến các mô hình ưu tiên tính lưu loát hơn độ chính xác thực tế, đôi khi "phát minh" ra các chi tiết để hoàn thiện một mẫu.
- Chiến lược giải mã: Phương pháp được sử dụng để chọn mã thông báo tiếp theo trong quá trình tạo (ví dụ: tìm kiếm tham lam so với tìm kiếm chùm tia) có thể ảnh hưởng đến khả năng xuất hiện ảo giác.
- Thiếu cơ sở: Các mô hình thường không có quyền truy cập trực tiếp vào thông tin có thể xác minh theo thời gian thực hoặc cơ chế để căn cứ các phát biểu của chúng vào các cơ sở kiến thức bên ngoài trừ khi được thiết kế riêng với các hệ thống như Retrieval-Augmented Generation (RAG) .
- Sự mơ hồ của lời nhắc: Lời nhắc mơ hồ hoặc được xây dựng kém có thể dẫn mô hình đi theo những đường dẫn tạo ra không mong muốn. Kỹ thuật lời nhắc hiệu quả là chìa khóa.
Ví dụ thực tế và tác động
Ảo giác có thể biểu hiện theo nhiều cách khác nhau, gây ra những rủi ro như phát tán thông tin sai lệch hoặc làm xói mòn lòng tin của người dùng.
- Trích dẫn pháp lý hư cấu: Trong một vụ việc được báo cáo rộng rãi, các luật sư đã sử dụng chatbot để nghiên cứu pháp lý, tạo ra các trích dẫn vụ án hoàn toàn bịa đặt được nộp trong hồ sơ tòa án. Điều này làm nổi bật mối nguy hiểm khi dựa vào LLM để biết thông tin quan trọng mà không được xác minh.
- Tiểu sử bịa đặt: Một LLM được yêu cầu cung cấp tiểu sử cho một cá nhân ít được biết đến có thể bịa đặt các chi tiết về cuộc sống, học vấn hoặc thành tích của họ, kết hợp các sự kiện có thật với các tuyên bố hợp lý nhưng không đúng sự thật. Điều này có thể đặc biệt có vấn đề trong các lĩnh vực như báo chí hoặc nghiên cứu học thuật.
Tác động này vượt xa những lỗi đơn giản; nó thách thức độ tin cậy của các hệ thống AI, đặc biệt là khi chúng được tích hợp vào các công cụ tìm kiếm, trợ lý ảo và công cụ tạo nội dung. Giải quyết vấn đề này là một thách thức cốt lõi trong đạo đức và an toàn của AI .
Phân biệt ảo giác
Điều quan trọng là phải phân biệt ảo giác với các loại lỗi khác:
- Sự thiên vị: Ảo giác khác với sự thiên vị trong AI , phản ánh sự sai lệch có hệ thống được học từ dữ liệu đào tạo (ví dụ: duy trì các khuôn mẫu). Ảo giác thường là những bịa đặt ngẫu nhiên và vô nghĩa hơn.
- Lỗi đơn giản: Một mô hình có thể mắc lỗi thực tế dựa trên thông tin lỗi thời trong tập huấn luyện của nó. Tuy nhiên, ảo giác liên quan đến việc tạo ra thông tin có khả năng không bao giờ tồn tại trong dữ liệu huấn luyện.
- Quá khớp: Trong khi quá khớp liên quan đến việc mô hình học dữ liệu đào tạo quá tốt và không thể khái quát hóa, thì ảo giác lại liên quan nhiều hơn đến việc tạo ra nội dung mới lạ và không chính xác.
Chiến lược giảm thiểu
Các nhà nghiên cứu và kỹ sư đang tích cực phát triển các phương pháp để giảm ảo giác LLM:
- Cải thiện dữ liệu đào tạo: Biên soạn các tập dữ liệu chất lượng cao hơn, đa dạng hơn và chính xác hơn về mặt thực tế.
- Retrieval-Augmented Generation (RAG): Tích hợp các nguồn kiến thức bên ngoài để đưa ra phản hồi dựa trên các sự kiện có thể xác minh được. Xem cách RAG hoạt động trong thực tế với các công cụ như LangChain .
- Tinh chỉnh: Điều chỉnh các mô hình được đào tạo trước trên các tập dữ liệu cụ thể, chất lượng cao bằng các kỹ thuật như tinh chỉnh hoặc tinh chỉnh hiệu quả tham số (PEFT) .
- Kỹ thuật gợi ý: Thiết kế các gợi ý hướng dẫn mô hình đưa ra câu trả lời thực tế và phù hợp với ngữ cảnh.
- Các lớp kiểm tra thực tế: Triển khai các bước xử lý hậu kỳ để xác minh các khiếu nại được tạo ra so với các nguồn đáng tin cậy .
- Đánh giá độ tin cậy: Đào tạo các mô hình để đưa ra mức độ tin cậy cho các tuyên bố của chúng, mặc dù điều này vẫn còn nhiều thách thức. Các kỹ thuật liên quan đến AI có thể giải thích (XAI) có thể giúp hiểu được độ tin cậy của mô hình.
Hiểu và giảm thiểu ảo giác là điều cần thiết để xây dựng các hệ thống AI đáng tin cậy có thể được tích hợp an toàn vào nhiều ứng dụng khác nhau, từ chatbot đơn giản đến các công cụ phức tạp được sử dụng trong quy trình làm việc máy học và các tác vụ xử lý ngôn ngữ tự nhiên (NLP) . Nghiên cứu và phát triển liên tục, bao gồm các nền tảng như Ultralytics HUB tạo điều kiện thuận lợi cho việc quản lý và đánh giá mô hình, là điều cần thiết trong nỗ lực đang diễn ra này.