デジタル世界の進化に伴い、新たなサイバー脅威が浮上しています。最近、AIツール、特にChatGPTやGoogle Geminiなどの大規模言語モデル(LLM)をターゲットにした「Man in the Prompt」攻撃が注目を集めています。この攻撃手法は、ブラウザ拡張機能を悪用し、ユーザーがAIツールに入力するプロンプトに悪意のある指示を挿入するものです。
この脆弱性は、AIツールのプロンプト入力フィールドがウェブページのDocument Object Model(DOM)の一部として組み込まれていることに起因します。これにより、基本的なスクリプトアクセス権を持つブラウザ拡張機能が、特別な許可なしにユーザーの入力内容を読み取ったり、変更したりすることが可能となります。セキュリティ企業LayerXの研究によれば、悪意のある拡張機能がユーザーのプロンプトに隠れた指示を挿入し、AIの応答を操作したり、機密情報を抽出したりする可能性があります。
この脆弱性は、企業がAIツールを導入する際のセキュリティ戦略に新たな課題をもたらしています。LayerXは、組織がブラウザの動作を検査し、AIツール内のDOMインタラクションを監視することで、不審な活動を検出し、危険な拡張機能をブロックすることを推奨しています。また、ブラウザレベルでリアルタイムにプロンプトの改ざんやデータ流出を防止することが重要です。
このような攻撃手法は、AIツールのセキュリティに対する新たな脅威を示しており、企業やユーザーはブラウザ拡張機能の管理と監視を強化する必要があります。セキュリティ対策を講じることで、AIツールの安全な利用が可能となります。