プロンプト・インジェクションがどのようにAIの脆弱性を突くのか、セキュリティにどのような影響を与えるのかを知り、悪意のある攻撃からAIシステムを守るための戦略を学ぶ。
プロンプト・インジェクションは、ラージ・ランゲージ・モデル(LLM)をベースに構築されたアプリケーションに影響を与える重大なセキュリティ脆弱性です。これは、LLM の命令を操作する悪意のあるユーザー入力を作成し、LLM が意図した動作から外れるようにするものです。これにより、安全プロトコルを回避したり、不正なコマンドを実行したりする可能性がある。コードの欠陥を狙った従来のソフトウェア悪用とは異なり、プロンプト・インジェクションはモデルの自然言語の解釈を悪用するため、人工知能(AI)セキュリティにおけるユニークな課題となる。単純なチャットボットから 金融や 医療で使用される複雑なシステムに至るまで、LLMが多様なアプリケーションに不可欠になるにつれて、この脆弱性に対処することは極めて重要です。
LLMは、開発者やユーザーから提供される指示(プロンプト)に基づいて機能する。典型的なプロンプトには、核となる指示(AIのタスク)とユーザーが入力したデータが含まれる。プロンプトインジェクション攻撃は、ユーザー入力がLLMを騙してその入力の一部を新しい上書き命令として解釈させるように設計されている場合に発生します。例えば、攻撃者は一見普通のテキストの中に隠しコマンドを埋め込むかもしれません。するとLLMは本来のプログラミングを無視し、攻撃者の指示に従うかもしれない。これは、モデルのコンテキスト・ウィンドウ内で、信頼されたシステム命令と潜在的に信頼されていないユーザー入力を分離することの難しさを浮き彫りにしています。OWASP Top 10 for LLM Applicationsは、プロンプト・インジェクションを主要なセキュリティ脅威として認識し、責任あるAI開発における重要性を強調しています。
プロンプト・インジェクション攻撃は、いくつかの有害な方法で現れます:
機械学習(ML)において、プロンプト・インジェクションを、関連はするが異なる概念と区別することは不可欠である:
プロンプト・インジェクションに対する防御は困難であり、活発な研究分野である。一般的な緩和アプローチには次のようなものがある:
のようなモデルがある一方で Ultralytics YOLOのようなモデルは、従来、物体検出、インスタンスのセグメンテーション、ポーズ推定などの コンピュータ・ビジョン(CV)タスクに焦点を当ててきたが、その状況は進化している。自然言語によるプロンプトを受け付けるYOLO YOLOEのようなマルチモーダルモデルやプロンプト可能なビジョンシステムの出現により、プロンプトベースの脆弱性を理解することは、AI分野全体でますます関連性を増しています。特に、Ultralytics HUBのようなプラットフォームを通じてモデルやデータを管理する場合や、さまざまなモデル展開オプションを検討する場合には、堅牢なセキュリティ慣行を確保することが不可欠です。