了解提示注入如何利用人工智能漏洞、影响安全性,并学习保护人工智能系统免受恶意攻击的策略。
提示注入是影响由大型语言模型(LLM)驱动的应用程序的一个重大安全漏洞。当恶意用户输入操纵 LLM 的指令时,就会导致 LLM 以非预期的方式运行,有可能绕过安全功能或执行有害指令。与针对代码漏洞的传统软件漏洞利用不同,提示注入针对的是模型对自然语言指令的解释,这使其成为人工智能(AI)安全领域的一个独特挑战。随着 LLM 越来越多地集成到从聊天机器人到复杂决策系统等各种应用中,这个问题变得至关重要。
LLM 的运行基于提示,即用户或开发人员发出的指令。提示通常包括核心指令(人工智能应该做什么)和用户提供的任何数据。提示注入攻击通过精心设计用户输入,诱使 LLM 将部分输入视为新的覆盖指令。例如,攻击者可能会在看似普通的用户数据中嵌入指令,导致 LLM 忽略其原始目的,转而执行攻击者的指令。这凸显了在模型上下文窗口中区分可信指令和不可信用户输入的基本挑战。OWASP LLM 应用程序十大漏洞将提示注入列为主要漏洞。
提示注入的表现形式多种多样,可导致严重的安全漏洞:
重要的是要将及时注射与相关术语区分开来:
防御快速注射是一个持续研究和开发的领域。常见的策略包括
虽然Ultralytics YOLO 等模型主要侧重于计算机视觉任务,如物体检测,但多模式模型和YOLO-World和YOLOE等可提示视觉系统的兴起,意味着了解基于提示的漏洞在整个人工智能领域越来越重要。确保强大的防御对于维护人工智能道德和安全至关重要,尤其是在通过Ultralytics HUB 等平台部署模型时。