2026年3月31日、日本ファクトチェックセンター(JFC)が、イランが新兵器で米軍のF-35戦闘機を撃墜したとする動画について検証結果を公表した。
拡散した映像は生成AIによるものであり、戦時情報における誤認リスクの拡大が浮き彫りとなっている。
AI生成の戦闘動画が拡散、真偽混在が加速
問題となったのは、2026年3月28日にアラビア語で投稿された映像である。内容は「イランが熱誘導兵器(衝撃波)で複数のF-35を撃墜した」とするもので、戦闘機が円形の衝撃波により破壊される様子が描かれていた。
日本語圏でも拡散が進み、表示回数は70万回を超えるなど急速に広がった。
しかし2026年3月31日の日本ファクトチェックセンター(※)の検証によれば、元の投稿には「AIで生成」と明記されており、創作動画であることが示されていたのだが、引用や再投稿の過程でこの注釈が削除され、実際の戦闘映像と誤認されるケースが増加したという。
また、同時期にF-35が攻撃を受け緊急着陸したとの報道は存在するが、撃墜に関する事実確認はなされていない。
さらに、動画に添付されたInstagramアカウントについても同一映像は確認されておらず、出所の不透明性も指摘される結果となった。
※日本ファクトチェックセンター:インターネットにおける言論の健全性向上を目的として、ファクトチェックに取り組む非営利組織。公式リンクはこちら。
戦時×生成AIで情報戦は新段階へ
今回の事例は、生成AIが戦時情報の信頼性を根本から揺るがしうることを示している。
従来のフェイクニュースはテキストや静止画が中心だったが、動画という高い説得力を持つ形式での誤情報が拡散されることで、認知的な防御が難しくなっていると言える。
特に問題となるのは、情報の「文脈消失」である。今回のように「AI生成」というラベルが引用過程で削除されると、受信者は真偽判断の前提を失う。
この構造は、SNSの拡散アルゴリズムと相まって、誤情報を加速的に増幅させる可能性がある。
一方で、プラットフォーム側も対策を進めている。Xは紛争関連のAI生成コンテンツに対し、ラベル未表示時の収益停止措置を導入した。
しかし、実効性は投稿者の遵守に依存する側面が強く、完全な抑止には至っていない。
今後は、技術的な検出手段とともに、受信者側のリテラシー向上が不可欠となる。生成AIが高度化するほど、「映像=事実」という前提は崩れ、情報の信頼性は個々の検証能力に委ねられる局面へ移行していく可能性が高い。
関連記事:
EU、XのGrok偽画像問題をAI規制で調査 デジタルサービス法に基づき検証

生成AI偽動画が地震被害として拡散 鳥取県、TikTokに削除要請を検討
