Thuật ngữ

Ảo giác (trong LLM)

Khám phá cách quản lý ảo giác trong LLM như GPT-3, nâng cao độ chính xác của AI bằng các kỹ thuật hiệu quả và giám sát về mặt đạo đức.

Xe lửa YOLO mô hình đơn giản
với Ultralytics TRUNG TÂM

Tìm hiểu thêm

Các mô hình ngôn ngữ lớn (LLM) có khả năng đáng chú ý trong việc tạo ra văn bản giống con người, nhưng đôi khi chúng tạo ra các đầu ra không đúng sự thật hoặc vô nghĩa, được gọi là 'ảo giác'. Ảo giác trong LLM đề cập đến các tình huống mà mô hình tạo ra nội dung không phản ánh dữ liệu thực tế hoặc thông tin hợp lệ. Việc hiểu và quản lý ảo giác rất quan trọng để triển khai AI hiệu quả.

Hiểu về ảo giác

Nguyên nhân gây ra ảo giác

  1. Giới hạn dữ liệu đào tạo : LLM được đào tạo trên các tập dữ liệu mở rộng, nhưng các tập dữ liệu này có thể chứa lỗi hoặc sai lệch dẫn đến ảo giác. Hơn nữa, việc không có thông tin cập nhật hoặc đầy đủ có thể làm trầm trọng thêm sự không chính xác.
  2. Bản chất xác suất : LLM tạo ra văn bản dựa trên xác suất. Quá trình không chắc chắn này đôi khi có thể tạo ra những kết quả sáng tạo nhưng không chính xác, giống như 'bịa ra mọi thứ'.

  3. Các câu hỏi phức tạp : Khi đối mặt với những câu hỏi phức tạp hoặc mơ hồ, LLM có thể thêm thắt hoặc tạo ra thông tin hợp lý nhưng sai lệch để lấp đầy khoảng trống.

Phân biệt từ các khái niệm tương tự

Trong khi ảo giác liên quan đến kết quả tạo ra không chính xác, chúng khác với sự thiên vị trong AI, liên quan đến lỗi hệ thống do tập dữ liệu có định kiến. Để biết thêm về cách sự thiên vị tác động đến hệ thống AI, hãy xem Sự thiên vị trong AI .

Sự liên quan và ứng dụng

Bất chấp những thách thức của chúng, các LLM như GPT-3, được khám phá trong GPT-3 Glossary , cung cấp các khả năng nâng cao cho nhiều ứng dụng khác nhau, bao gồm chatbot, tạo nội dung, v.v., trong đó hiểu biết theo ngữ cảnh thường bù đắp cho ảo giác thỉnh thoảng. Khám phá Ứng dụng Chatbot để triển khai trong thế giới thực.

Giảm ảo giác

Kỹ thuật để giảm thiểu

  1. Retrieval-Augmented Generation (RAG) : Bằng cách sử dụng dữ liệu bên ngoài, các mô hình tinh chỉnh phản ứng, giảm ảo giác. Đi sâu hơn vào Kỹ thuật RAG .

  2. Tinh chỉnh : Việc điều chỉnh các mô hình với các tập dữ liệu cụ thể sẽ tăng cường độ chính xác. Tìm hiểu thêm trong Phương pháp tinh chỉnh .

  3. Giám sát của con người : Việc kết hợp phương pháp tiếp cận có sự tham gia của con người đảm bảo xác minh đầu ra của AI, một bước quan trọng trong các lĩnh vực như chăm sóc sức khỏe, như đã thảo luận trong AI trong chăm sóc sức khỏe .

Ví dụ thực tế

  1. Hỗ trợ khách hàng : Các chatbot AI như chatbot được Microsoft Copilot sử dụng đôi khi cung cấp thông tin không chính xác, đòi hỏi phải đào tạo và cải thiện liên tục.

  2. Tạo nội dung : Các bản tin do AI tạo ra có thể bao gồm những sự kiện không tồn tại vì LLM cố gắng xây dựng các câu chuyện mà không có đủ bối cảnh hoặc độ chính xác của dữ liệu.

Ý nghĩa đạo đức

Ảo giác gây ra những lo ngại về đạo đức, đặc biệt là trong các ứng dụng mà thông tin sai lệch có thể có tác động đáng kể. Đảm bảo đạo đức và trách nhiệm giải trình của AI là điều không thể thiếu, một chủ đề được khám phá sâu hơn trong Đạo đức AI .

Định hướng tương lai

Khi AI tiếp tục phát triển, những nỗ lực cải thiện độ chính xác và độ tin cậy của LLM sẽ tăng cường các ứng dụng trong nhiều ngành công nghiệp đồng thời giảm thiểu ảo giác. Việc tích hợp các phương pháp xác thực bên ngoài tiên tiến và các tập dữ liệu đào tạo mạnh mẽ hơn có thể sẽ định hình LLM thế hệ tiếp theo.

Để biết thêm thông tin chi tiết và những tiến bộ liên tục về các ứng dụng LLM và quản lý ảo giác, hãy khám phá Blog Ultralytics và cân nhắc tải xuống Ứng dụng Ultralytics để có các công cụ tương tác AI trực tiếp.

Đọc tất cả