Descobre como a injeção rápida explora as vulnerabilidades da IA, tem impacto na segurança e aprende estratégias para proteger os sistemas de IA contra ataques maliciosos.
A injeção de prompts é uma vulnerabilidade de segurança significativa que afecta as aplicações alimentadas por Modelos de Linguagem Grandes (LLMs). Ocorre quando um input malicioso do utilizador manipula as instruções do LLM, fazendo com que este se comporte de forma não intencional, podendo contornar funcionalidades de segurança ou executar comandos nocivos. Ao contrário das explorações de software tradicionais que visam vulnerabilidades de código, a injeção de comandos visa a interpretação do modelo de instruções em linguagem natural, o que a torna um desafio único na segurança da Inteligência Artificial (IA). Esta questão é crítica, uma vez que os LLM estão cada vez mais integrados em várias aplicações, desde chatbots a sistemas complexos de tomada de decisões.
As LLM funcionam com base em prompts, que são instruções dadas por utilizadores ou programadores. Normalmente, um prompt consiste na instrução principal (o que a IA deve fazer) e em quaisquer dados fornecidos pelo utilizador. Os ataques de injeção de prompts funcionam através da criação de entradas do utilizador que induzem o LLM a tratar parte da entrada como uma nova instrução de substituição. Por exemplo, um atacante pode incorporar instruções no que parecem ser dados normais do utilizador, fazendo com que o LLM ignore o seu objetivo original e siga o comando do atacante. Isso destaca um desafio fundamental na distinção entre instruções confiáveis e entrada de usuário não confiável dentro da janela de contexto do modelo. O OWASP Top 10 para aplicações LLM lista a injeção de prompt como uma vulnerabilidade primária.
A injeção de prompt pode manifestar-se de várias formas, conduzindo a graves violações de segurança:
É importante distinguir a injeção imediata de termos relacionados:
A defesa contra a injeção imediata é uma área de investigação e desenvolvimento em curso. As estratégias mais comuns incluem:
Embora modelos como o Ultralytics YOLO se concentrem principalmente em tarefas de visão computacional, como a deteção de objectos, o aumento de modelos multimodais e de sistemas de visão com comandos, como o YOLO e o YOLOE, significa que a compreensão das vulnerabilidades baseadas em comandos é cada vez mais relevante no panorama da IA. Garantir defesas robustas é crucial para manter a ética e a segurança da IA, especialmente ao implantar modelos por meio de plataformas como o Ultralytics HUB.