Khám phá cách tấn công nhanh khai thác lỗ hổng AI, tác động đến bảo mật và tìm hiểu các chiến lược bảo vệ hệ thống AI khỏi các cuộc tấn công độc hại.
Tiêm nhắc là một lỗ hổng bảo mật quan trọng ảnh hưởng đến các ứng dụng được hỗ trợ bởi Mô hình ngôn ngữ lớn (LLM) . Nó xảy ra khi dữ liệu đầu vào độc hại của người dùng thao túng các lệnh của LLM, khiến nó hoạt động theo những cách không mong muốn, có khả năng bỏ qua các tính năng an toàn hoặc thực hiện các lệnh có hại. Không giống như các khai thác phần mềm truyền thống nhắm vào các lỗ hổng mã, tiêm nhắc nhắm vào cách diễn giải các lệnh ngôn ngữ tự nhiên của mô hình, khiến nó trở thành một thách thức độc đáo trong bảo mật Trí tuệ nhân tạo (AI) . Vấn đề này rất quan trọng vì LLM ngày càng được tích hợp vào nhiều ứng dụng khác nhau, từ chatbot đến các hệ thống ra quyết định phức tạp.
LLM hoạt động dựa trên lời nhắc, là các hướng dẫn do người dùng hoặc nhà phát triển đưa ra. Lời nhắc thường bao gồm hướng dẫn cốt lõi (AI nên làm gì) và bất kỳ dữ liệu nào do người dùng cung cấp. Các cuộc tấn công tiêm lời nhắc hoạt động bằng cách tạo ra đầu vào của người dùng để đánh lừa LLM coi một phần đầu vào là một hướng dẫn mới, ghi đè. Ví dụ: kẻ tấn công có thể nhúng các hướng dẫn vào dữ liệu người dùng thông thường, khiến LLM bỏ qua mục đích ban đầu của nó và thay vào đó thực hiện theo lệnh của kẻ tấn công. Điều này làm nổi bật một thách thức cơ bản trong việc phân biệt giữa các hướng dẫn đáng tin cậy và đầu vào của người dùng không đáng tin cậy trong cửa sổ ngữ cảnh của mô hình. OWASP Top 10 cho các ứng dụng LLM liệt kê tiêm lời nhắc là lỗ hổng chính.
Việc tiêm mã độc kịp thời có thể biểu hiện theo nhiều cách khác nhau, dẫn đến vi phạm bảo mật nghiêm trọng:
Điều quan trọng là phải phân biệt tiêm nhanh với các thuật ngữ liên quan:
Phòng chống tiêm thuốc ngay là một lĩnh vực nghiên cứu và phát triển đang được tiến hành. Các chiến lược phổ biến bao gồm:
Trong khi các mô hình như Ultralytics YOLO chủ yếu tập trung vào các tác vụ thị giác máy tính như phát hiện đối tượng , sự gia tăng của các mô hình đa phương thức và các hệ thống thị giác nhắc nhở như YOLO -World và YOLOE có nghĩa là việc hiểu các lỗ hổng dựa trên nhắc nhở ngày càng có liên quan trong toàn bộ bối cảnh AI. Đảm bảo phòng thủ mạnh mẽ là rất quan trọng để duy trì đạo đức và bảo mật AI , đặc biệt là khi triển khai các mô hình thông qua các nền tảng như Ultralytics HUB .