了解提示注入如何利用人工智能漏洞、影响安全性,并学习保护人工智能系统免受恶意攻击的策略。
提示注入是影响基于大型语言模型(LLM)构建的应用程序的一个重大安全漏洞。它涉及制作恶意用户输入,操纵 LLM 的指令,使其偏离预期行为。这可能导致绕过安全协议或执行未经授权的命令。与针对代码缺陷的传统软件漏洞不同,提示注入利用了模型对自然语言的解释,给人工智能(AI)安全带来了独特的挑战。随着 LLM 成为各种应用(从简单的聊天机器人到用于金融或医疗保健的复杂系统)不可或缺的一部分,解决这一漏洞至关重要。
LLM 根据开发人员或用户提供的提示--指令来运行。典型的提示包括核心指令(人工智能的任务)和用户提供的数据。当用户输入被设计成诱骗 LLM 将部分输入解释为新的、覆盖指令时,就会发生提示注入攻击。例如,攻击者可能会在看似正常的文本中嵌入隐藏指令。然后,LLM 可能会忽略其原始编程,而遵循攻击者的指令。这凸显了在模型的上下文窗口中将可信系统指令与潜在的不可信用户输入分离的难度。OWASP LLM 应用程序 10 大威胁将提示注入视为主要安全威胁,强调了其在负责任的人工智能开发中的重要性。
提示注入攻击可表现为多种有害方式:
必须将及时注入与机器学习(ML)中相关但不同的概念区分开来:
抵御快速注入是一项挑战,也是一个活跃的研究领域。常见的缓解方法包括
虽然像 Ultralytics YOLO等模型传统上侧重于对象检测、实例分割和姿态估计等计算机视觉(CV)任务,但这一领域正在不断发展。多模态模型和可提示视觉系统(如YOLO和YOLOE,可接受自然语言提示)的出现,使得了解基于提示的漏洞在整个人工智能领域变得越来越重要。确保稳健的安全实践至关重要,尤其是在通过Ultralytics HUB等平台管理模型和数据或考虑不同的模型部署方案时。