Thuật ngữ

Ảo giác (trong LLM)

Tìm hiểu ảo giác LLM là gì, nguyên nhân, rủi ro thực tế và cách giảm thiểu chúng để có kết quả AI chính xác, đáng tin cậy.

Xe lửa YOLO mô hình đơn giản
với Ultralytics TRUNG TÂM

Tìm hiểu thêm

Các mô hình ngôn ngữ lớn (LLM) như GPT và các mô hình khác được thiết kế để tạo văn bản dựa trên các mẫu học được từ các tập dữ liệu lớn. Tuy nhiên, các mô hình này đôi khi có thể tạo ra thông tin có vẻ là sự thật nhưng hoàn toàn là bịa đặt hoặc không chính xác. Hiện tượng này được gọi là "ảo giác" trong LLM. Ảo giác xảy ra khi một mô hình tạo ra nội dung không dựa trên dữ liệu mà nó được đào tạo hoặc lệch khỏi đầu ra dự định.

Hiểu về ảo giác trong LLM

Ảo giác phát sinh do bản chất xác suất của LLM. Các mô hình này dự đoán từ tiếp theo trong một chuỗi dựa trên khả năng xuất phát từ dữ liệu đào tạo của chúng. Đôi khi, quá trình này có thể dẫn đến kết quả nghe có vẻ hợp lý nhưng sai. Ảo giác có thể dao động từ những sai sót nhỏ đến các sự kiện, sự kiện hoặc trích dẫn hoàn toàn bịa đặt.

Ví dụ:

  • Một LLM có thể tự tin tuyên bố rằng một nhân vật lịch sử được sinh ra vào một năm cụ thể, mặc dù ngày tháng không chính xác.
  • Nó có thể bịa ra một tài liệu tham khảo đến một bài báo khoa học không tồn tại khi được yêu cầu trích dẫn.

Ảo giác đặc biệt đáng lo ngại trong các ứng dụng đòi hỏi độ chính xác và độ tin cậy cao, chẳng hạn như chăm sóc sức khỏe, luật pháp hoặc nghiên cứu khoa học. Tìm hiểu thêm về những tác động rộng hơn của đạo đức AI và tầm quan trọng của việc đảm bảo phát triển AI có trách nhiệm.

Nguyên nhân gây ra ảo giác

Ảo giác có thể xuất phát từ một số yếu tố:

  1. Hạn chế về dữ liệu đào tạo : Mô hình có thể không có đủ dữ liệu chính xác về một chủ đề cụ thể, dẫn đến việc "đoán" dựa trên thông tin không đầy đủ hoặc không liên quan.
  2. Tổng quát hóa quá mức : LLM có thể áp dụng quá mức hoặc các mẫu từ dữ liệu đào tạo vào các bối cảnh không phù hợp.
  3. Sự mơ hồ của lời nhắc : Nếu lời nhắc đầu vào không rõ ràng hoặc quá rộng, mô hình có thể tạo ra các phản hồi không liên quan hoặc bịa đặt.
  4. Thiết kế mô hình : Kiến trúc cơ bản của LLM, chẳng hạn như Transformers, tập trung vào tính nhất quán về mặt ngôn ngữ hơn là độ chính xác về mặt thực tế. Tìm hiểu thêm về kiến trúc Transformer và các ứng dụng của nó.

Ví dụ thực tế về ảo giác

Ví dụ 1: Chẩn đoán y khoa

Một LLM được sử dụng trong chatbot chăm sóc sức khỏe có thể gợi ý sai phương pháp điều trị dựa trên các triệu chứng ảo giác hoặc tham chiếu. Ví dụ, nó có thể đề xuất một loại thuốc không tồn tại cho một tình trạng cụ thể. Để giảm thiểu điều này, các nhà phát triển tích hợp Explainable AI (XAI) để đảm bảo tính minh bạch và khả năng truy xuất nguồn gốc trong các đề xuất do AI tạo ra.

Ví dụ 2: Hỗ trợ pháp lý

Trong quá trình tạo tài liệu pháp lý, một LLM có thể bịa đặt luật lệ hoặc trích dẫn sai luật lệ. Điều này đặc biệt có vấn đề trong các ứng dụng mà các chuyên gia pháp lý dựa vào tiền lệ chính xác. Sử dụng các phương pháp dựa trên truy xuất như Retrieval Augmented Generation (RAG) có thể giúp đưa ra phản hồi trong các tài liệu đã xác minh.

Giải quyết ảo giác

Kỹ thuật để giảm ảo giác

  1. Quản lý dữ liệu nâng cao : Cung cấp các tập dữ liệu đào tạo đa dạng, chất lượng cao giúp giảm khả năng ảo giác. Ví dụ, các tập dữ liệu được quản lý cho các ứng dụng Học máy (ML) thường trải qua quá trình xác thực nghiêm ngặt để đảm bảo độ chính xác.
  2. Học tăng cường với phản hồi của con người (RLHF) : Phương pháp này tinh chỉnh các mô hình bằng cách sử dụng phản hồi của con người để căn chỉnh đầu ra với các phản hồi mong muốn và thực tế.
  3. Kỹ thuật nhắc nhở : Việc tạo ra các nhắc nhở chính xác và cụ thể có thể hướng dẫn mô hình hướng tới các đầu ra chính xác hơn. Tìm hiểu thêm về kỹ thuật nhắc nhở và vai trò của nó trong việc tối ưu hóa hiệu suất LLM.
  4. Tích hợp kiến thức bên ngoài : Việc kết hợp các cơ sở kiến thức hoặc API bên ngoài đảm bảo rằng mô hình có thể truy cập thông tin mới nhất và chính xác trong quá trình suy luận.

Công cụ và Khung

  • OpenAI và các tổ chức khác đang tích cực nghiên cứu các phương pháp phát hiện và giảm thiểu ảo giác trong mô hình của họ. Ví dụ, GPT-4 của OpenAI bao gồm các cơ chế để giảm sự không chính xác về mặt thực tế.

Ứng dụng và Rủi ro

Trong khi ảo giác đặt ra những thách thức, nó cũng có những ứng dụng sáng tạo. Trong các lĩnh vực như kể chuyện hoặc tạo nội dung, ảo giác có thể thúc đẩy sự đổi mới bằng cách tạo ra những ý tưởng giàu trí tưởng tượng hoặc suy đoán. Tuy nhiên, trong các ứng dụng quan trọng như chăm sóc sức khỏe hoặc xe tự lái , ảo giác có thể dẫn đến hậu quả nghiêm trọng, bao gồm thông tin sai lệch hoặc nguy cơ an toàn.

Hướng đi trong tương lai

Giải quyết ảo giác đòi hỏi những tiến bộ trong cả đào tạo và đánh giá mô hình. Các kỹ thuật như tích hợp Explainable AI và phát triển các mô hình chuyên biệt cho từng miền là những con đường đầy hứa hẹn. Ngoài ra, các nền tảng như Ultralytics HUB cho phép các nhà phát triển thử nghiệm các giải pháp AI tiên tiến trong khi tập trung vào các hoạt động đánh giá và triển khai mạnh mẽ.

Bằng cách hiểu và giảm thiểu ảo giác, chúng ta có thể khai thác toàn bộ tiềm năng của LLM đồng thời đảm bảo đầu ra của họ đáng tin cậy và có thể áp dụng trong các ứng dụng thực tế.

Đọc tất cả