2026年3月16日、米調査会社Gartnerは、セキュリティ対策が不十分なAIエージェントがサイバー攻撃の温床となる可能性があるとの見解を発表した。2028年までに企業の情報漏洩の主要因になるとの仮説も示している。
AIエージェント悪用リスクが顕在化
Gartnerは、正規に導入されたAIエージェントがサイバー攻撃者に悪用されるリスクが高まっていると指摘した。AIエージェントはユーザーに代わり社内システムへアクセスし、業務を自律的に実行するが、その広範な権限が攻撃者にとって格好の侵入口となる。
特に、セキュリティ設計が不十分なまま導入が進む場合、「誰が何のために作成したのか不明なエージェント」が乱立し、早期に制御不能に陥る可能性がある。この結果、正規のエージェントと、攻撃者が作成・乗っ取りした不正エージェントの区別が困難になるとされる。
さらに、AIエージェントによるアクセスの正当性を確認するには認証が必要だが、従来の認証手法(※)は人間を前提としており、そのまま適用することが難しい。エージェント単位での識別・認証・権限管理の新たな仕組みが求められている。
※従来の認証手法:ID・パスワードや多要素認証など、人間ユーザーの本人確認を前提とした仕組み。AIエージェントのような自律的プログラムには適用が難しく、新たな認証方式の検討が進んでいる。
利便性の裏で増すリスクと戦略課題
AIエージェントは業務自動化や生産性向上を加速させる中核技術と位置付けられつつある一方、導入の仕方によっては情報漏洩リスクを構造的に拡大させる可能性がある。特に、広範なアクセス権限を持つエージェントが侵害された場合、被害が一気に拡大する恐れがある。
一方で、適切な管理体制を構築すれば、業務効率の飛躍的向上や人的ミスの削減といったメリットも期待できる。ただし、その前提として情報資産の可視化やラベリング、細かな権限設計が必要となり、導入スピードとのトレードオフが生じる可能性がある点には留意が必要だ。
また、DX推進部門とセキュリティ部門の連携不足は、リスク増大につながる可能性がある。両者が分断されたまま導入が進めば、機密データが無制御に活用されるリスクも懸念される。
今後は、AIエージェントとセキュリティ技術の双方が進化する過渡期が続くとみられる。企業は最新情報を基に柔軟に方針を見直しながら、安全性と俊敏性のバランスを取る戦略的判断が求められる局面にあると考えられる。
関連記事:
ガートナーが示す生成AI時代の防衛線 日本企業に迫る2026年セキュリティ再設計

ガートナー予測、2030年までにデータセンター電力が倍増へ
