2026年4月27日、GMOサイバーセキュリティ byイエラエは、企業内AIのリスクを実攻撃手法で検証する「AIエージェントペネトレーションテスト」の提供を開始した。AI活用が加速する中、新たな攻撃リスクへの対応が求められている。
AIエージェントの脆弱性を実攻撃で検証
同社が提供を開始した「AIエージェントペネトレーションテスト」は、企業内で利用されるAIエージェントやチャットボット、RAG(※)などを対象に、攻撃者と同等の手法でリスクを検証するサービスである。ホワイトハッカーが実際の業務フローや権限設定、外部アプリケーション連携を踏まえ、情報漏えいや不正操作につながる脆弱性を可視化する。
検証では、LLM(※)に対するプロンプトインジェクション(※)の耐性確認に加え、AIがアクセス可能なデータ範囲や付与された権限、連携システム全体を対象とする。これにより、単体のAIモデルではなく、業務環境に組み込まれた状態でのリスクを把握できる点が特徴となる。
さらに、AIセーフティに関するレッドチーミング手法ガイドに基づいた検証にも対応しており、攻撃者視点での評価を体系的に実施できる。企業はテスト結果をもとに具体的な対策を講じることで、AI活用に伴うセキュリティリスクの低減を図ることが可能となる。
※RAG:外部データを検索し、その結果をもとに回答を生成する技術。最新情報や社内データを反映できる点が特徴。
※LLM:大量のテキストデータを学習し、人間のような文章生成や理解を行う大規模言語モデル。
※プロンプトインジェクション:AIへの指示文に悪意ある内容を混入し、情報漏えいや不正操作を引き起こす攻撃手法。
AI活用拡大で問われる安全性と運用負荷
本サービスの意義は、AI活用に伴う“見えにくいリスク”を事前に可視化できる点にあると考えられる。特に、業務データやシステム権限と密接に結びつくAIエージェントでは、一度の侵害が広範な被害につながる可能性があり、実践的な検証の重要性は今後さらに高まるとみられる。
一方で、こうしたペネトレーションテストはコストや人的リソースを要するため、すべての企業にとって導入のハードルが低いとは言い切れない。また、テストシナリオの設計次第で検出できるリスクの範囲が左右されることから、継続的な運用や改善が求められるケースも多いと考えられる。
今後は、AIが業務の中核を担うケースが増えるにつれ、セキュリティ対策も従来のシステム単位から“業務全体”へと拡張していく可能性がある。AIの利便性を最大化しつつリスクを抑えるためには、こうした攻撃前提の検証をどこまで標準化できるかが、企業競争力を左右する要因の一つになるといえる。
GMOサイバーセキュリティ byイエラエ株式会社 プレスリリース
関連記事: