AI音声で米国務長官を偽装 各国外相らに接触の事案が発覚、情報漏えいリスクも

2025年7月8日、ロイターが確認した外交公電により、AIで生成した音声を用い、米国務長官になりすました人物が各国の外相や米当局者らに接触していたことが明らかとなった。
米国務省は調査中で、情報漏えいのリスクにも警鐘が鳴らされている。
AI音声を悪用し外相らに接触、実在の高官を装う
ロイターが入手した7月3日付の外交公電によれば、正体不明の人物が生成AIを使ってルビオ米国務長官の音声を模倣し、外国の外相3人と米当局者2人に連絡を取っていた。
使用されたのは、メッセージアプリ「シグナル」で、6月中旬に音声とテキストの両メッセージが送信されていた。
少なくとも2人にはAIで作成された音声が残されていたとされ、テキストにはシグナル上でのやり取りを誘導する内容も含まれていた。
公電では「AIによる音声やテキストで標的を操作し、情報またはアカウントへのアクセスを得ようとした可能性が高い」と指摘。
現時点では直接的なサイバー攻撃の痕跡はないとする一方で、標的となった人物が不正アクセスを受けた場合、共有された情報が第三者に流出する恐れがあると警告している。
米国務省の高官は本件に関する調査を継続中であり、「再発防止のため、サイバーセキュリティの改善に継続的に取り組んでいる」とコメントした。
5月には米連邦捜査局(FBI)が、AI生成の音声やテキストを用いた政府高官のなりすましに警鐘を鳴らしており、州知事や連邦職員の個人アカウントを狙った事例が複数報告されている。
また、容疑者の特定には至っていないものの、公電は4月に発生した別件にも言及。
この件では、ロシアとつながりのあるハッカーが、米国務省職員を装ってGmailアカウントからフィッシングメールを送信。東欧の活動家やシンクタンク関係者を標的にしていた。
AI悪用の脅威 なりすましは新たな外交・国家安全保障リスクに
生成AIによる音声なりすましは、技術的な進化の副産物として、その精度の高さと低コストでの複製能力が際立っている。
本来は正当な用途として、音声合成は教育・福祉・メディア分野などで活用の幅を広げてきた。しかし今回のように、外交の中枢を担う人物を装ったAI音声が、各国要人に直接接触を図るという事案は、悪用の深刻さを如実に示している。
また、攻撃者の特定が困難な点も深刻だ。
生成AIはオープンソースでの提供も進んでおり、国家主体以外の非国家アクターも容易に高精度な音声を複製できる。
そのため、単なる詐欺行為にとどまらず、サイバー空間を舞台にした情報操作戦の道具として機能し得る点は、国家安全保障レベルの新たな課題であると言える。
この事案を契機に、AI音声の真正性を検証する仕組みや、要人の通信における多段階認証の導入が急がれる可能性が高い。
また、受信者側のリテラシー強化も重要な要素となるだろう。
総じて、生成AIがもたらす利便性とリスクは表裏一体であり、社会全体としての“AI耐性”の強化が求められるといえる。