AI悪用による偽音声詐欺が発生 企業幹部が社長の声に騙され不正送金

2024年11月、日本国内のメーカー企業において、人工知能(AI)を悪用した偽音声詐欺が発生していたことが、2025年3月19日に明らかになった。
社長の音声を模倣した電話により、企業幹部が送金を指示される事件が明らかになった。
この手口にはAI技術が用いられ、音声データの悪用が進む危険性を浮き彫りにしている。
AIを活用した巧妙な偽音声詐欺の実態
この事件は、米情報セキュリティー企業プルーフポイントの日本法人によって報告された。被害に遭ったのは、日本国内のメーカー企業の幹部である。2024年11月、幹部のもとに社長を名乗る電話がかかり、「緊急の企業買収案件がある」として、指定された口座への速やかな送金を求められた。
幹部は電話の発信者番号が社長のものと一致していたこと、普段の会話と違和感がなかったことから、偽音声とは疑わずに対応した。
この偽音声には、AIによる音声合成技術(※)が使用されたとみられる。
音声合成技術は、特定の人物の声の特徴をAIが学習し、任意の文章を自然な発話で再現するものである。社長の音声は、動画投稿サイトなどにアップロードされていたデータを基に学習された可能性が高い。
1時間半後、再び偽の社長から電話があり、送金の進捗確認が行われた。
この時点でも幹部は疑念を抱かず、結果として不正送金が実行されてしまった。プルーフポイントの増田幸美チーフエバンジェリストは、「AI技術の進化により、音声詐欺の手口がより巧妙になっている」と指摘し、企業や個人が警戒を強める必要があると警告している。
AI音声詐欺への対策と注意点
今回の事件は、AI技術の発展がもたらす新たな脅威を示している。企業や個人が同様の被害を防ぐためには、いくつかの対策が求められるだろう。
まず、企業内の重要な決済や送金の承認プロセスを見直し、音声指示だけで処理が進まないようにすることが必要だ。たとえば、メールや社内チャットなど別の手段での確認を義務付けることで、不正のリスクを低減できる。また、音声認証システムを導入し、通話の真正性を判別する仕組みを整えることも有効だ。
個人レベルでは、不審な電話や緊急性を強調する要求に対して慎重になるべきである。
発信者番号が正規のものでも、すぐに対応せず、別の手段で本人確認を行うことが推奨される。特に、公に音声が流通している経営者や著名人は、自身の声が悪用される可能性があることを認識し、注意を払う必要がある。
※音声合成技術…AIが特定の人物の音声データを学習し、自然な発話を生成する技術。従来の合成音声よりもリアルな再現が可能で、詐欺やなりすましに悪用されるケースが増えている。