生成AIがもたらす2025年のサイバーセキュリティ変革 ガートナーがトップ・トレンドを発表

2025年3月4日、ガートナージャパンは最新のサイバーセキュリティトレンドを発表した。
中でも、生成AIの進化がデータセキュリティ戦略に与える影響が注目されている。企業は非構造化データの保護やセキュリティプログラムの再構築を迫られており、生成AIのリスクと機会を見極めることが重要となる。
加えて、AIが生成するデータの真正性やセキュリティ基準の確立が目下の課題となっている。
生成AIの進化とデータセキュリティへの影響
従来、セキュリティ対策は主にデータベースのような構造化データの保護に焦点を当てていた。しかし、生成AIの台頭により、テキスト、画像、動画などの非構造化データの保護が急務となっている。多くの組織はデータセキュリティ戦略を根本的に見直しており、これは大規模言語モデル(LLM)のトレーニングやデータの展開、分析プロセスの設計にも影響を及ぼす。
また、生成AIが作成するデータの改ざんリスクや情報の真正性の確保も新たな課題となっている。例えば、合成データの使用が拡大する中で、悪意あるデータの挿入やハルシネーション(虚偽情報)の発生を防ぐためのフレームワーク構築が求められる。これに伴い、AIセキュリティの基準を策定し、企業ごとに適応可能なガイドラインを設ける動きが進んでいる。
セキュリティおよびリスクマネジメント(SRM)リーダーは、生成AI活用のイニシアティブとデータセキュリティの関係性について、社内での理解を深める必要がある。特に、生成AIのトレーニングデータが適切に管理されているか、出力結果が安全で信頼できるものであるかを保証するためのモニタリング体制の確立が不可欠である。
生成AI導入に伴うリスクと今後の展望
生成AIの利用は、新たなリスクをもたらす一方で、効率的なデータ管理や脅威検出の強化にも寄与する。企業はこれらのリスクと機会をバランスよく管理し、生成AIを活用したセキュリティ戦略を構築することが重要である。
具体的には、マシンアイデンティティの管理や戦術的AIの導入、セキュリティ行動・文化促進プログラムの拡大などがあげられる。また、ゼロトラストアーキテクチャ(ZTA)に基づいた生成AIのアクセス管理が求められ、従来の認証・認可システムを再構築する必要がある。
加えて、生成AIの監査体制強化も重要な課題である。
AIモデルが適切に学習し、不正なデータを排除できるかどうかの透明性を高めるため、ガバナンスフレームワークの導入が進んでいる。
さらに、AIが作成したデータの出所を証明するデジタル署名技術や、水印技術を活用することで、偽情報の拡散を防ぐ取り組みも進められている。
これらの取り組みを通じて、組織全体のセキュリティ意識を高め、進化する脅威環境に対応していくことが求められる。企業は生成AIを単なるリスク要因と捉えるのではなく、適切なガバナンスと技術的対策を組み合わせることで、より安全かつ効率的なセキュリティ環境を構築することができるだろう。