ミャンマー地震映像、生成AIが偽装か 災害時のディープフェイク拡散に警戒を

ミャンマー中部で同年3月28日に発生した大地震を受け、SNS上で関連映像が拡散された。
しかし、その一部に生成AIによるディープフェイクや、現地の映像ではない誤情報が混ざっていることを、日本ファクトチェックセンター(JFC)が2025年4月3日に報じた。
生成AIによる災害映像の偽装、ファクトチェックで見えた実態
3月28日にミャンマー中部で発生したマグニチュード7.7の地震は、現時点で3,100人以上の犠牲者が出ており、隣国のタイや中国などでも大きな揺れを観測した。こうした中、SNSを中心に「現地の地震映像」と称する動画が次々と投稿され、注目を集めている。
しかし、いくつかの映像が生成AIによって人工的に作られたディープフェイク(※)であることが判明した。
X(旧Twitter)やTikTok、YouTubeなどでは、こうした偽装映像が多くのインプレッションを獲得している。
これらの投稿は一見して信憑性が高く見えるため、多くのユーザーが真実と信じ込み、共有を繰り返したとみられる。
今回、日本ファクトチェックセンターは、生成AIによる偽動画の可能性を検証するため、国際的な専門チーム「Deepfakes Analysis Unit(DAU)」に協力を依頼した。
DAUが識別ツールを用いて分析した結果、塔が浮いて見えたり、不自然な配置が確認されるなど、物理的に説明のつかない歪みがある動画が見られたという。
最終的にDAUは、ツールによる判定結果と目視による分析の両方を踏まえ、「拡散した2つの動画はAIによって生成されたディープフェイクで、ミャンマー地震の被害映像だという主張は誤り」と結論づけたようだ。
※ディープフェイク:AI技術を使って人物や映像を高精度で加工し、実在するかのように見せかける技術。特にフェイクニュースや誤情報の拡散手段として問題視されている。
生成AI技術のリスク、SNS時代に求められるリテラシー
生成AIの映像技術は、災害シミュレーションや教育・訓練といった分野において、高いリアリティを伴う可視化を可能にしており、災害対策の啓発や住民意識の向上に一定の効果をもたらすと考えられる。
また、SNS上で注目を集めやすいため、情報伝達の迅速化という点でも一定の価値を持ちうる。
しかし、今回のような誤情報の拡散は、被災者への誤解や不安を助長し、救援活動にも混乱をもたらすおそれがある。SNSユーザーには、出所の不明な情報を安易に共有しない慎重な姿勢が求められる。
一方で、ディープフェイクの精度は年々向上しており、個人が真偽を見極めるには限界があるのも現実だ。
この流れに対抗するためには、SNSプラットフォーム運営側が、AI生成コンテンツのラベリング義務や、自動検出・削除機能の強化といった、より積極的な介入を行う必要があるだろう。
法的整備の側面でも、AI生成物の流通・使用に関する明確なルール作りを進める必要がある。
表現の自由と偽情報対策のバランスが問われる中では、社会全体が技術とどう共存していくか、倫理的・技術的な議論を深化させることが必要になるはずだ。
今後の焦点は「技術を止めるか」ではなく、「いかにして制御し、信頼性を担保するか」だろう。