MENU
採用担当の方はこちら
業務委託案件をお探しの方はこちら
メルマガ/AI・Web3 Insight



    AI悪用による偽音声詐欺が発生 企業幹部が社長の声に騙され不正送金

    2024年11月、日本国内のメーカー企業において、人工知能(AI)を悪用した偽音声詐欺が発生していたことが、2025年3月19日に明らかになった。

    社長の音声を模倣した電話により、企業幹部が送金を指示される事件が明らかになった。

    この手口にはAI技術が用いられ、音声データの悪用が進む危険性を浮き彫りにしている。

    目次

    AIを活用した巧妙な偽音声詐欺の実態

    この事件は、米情報セキュリティー企業プルーフポイントの日本法人によって報告された。被害に遭ったのは、日本国内のメーカー企業の幹部である。2024年11月、幹部のもとに社長を名乗る電話がかかり、「緊急の企業買収案件がある」として、指定された口座への速やかな送金を求められた。

    幹部は電話の発信者番号が社長のものと一致していたこと、普段の会話と違和感がなかったことから、偽音声とは疑わずに対応した。

    この偽音声には、AIによる音声合成技術(※)が使用されたとみられる。

    音声合成技術は、特定の人物の声の特徴をAIが学習し、任意の文章を自然な発話で再現するものである。社長の音声は、動画投稿サイトなどにアップロードされていたデータを基に学習された可能性が高い。

    1時間半後、再び偽の社長から電話があり、送金の進捗確認が行われた。

    この時点でも幹部は疑念を抱かず、結果として不正送金が実行されてしまった。プルーフポイントの増田幸美チーフエバンジェリストは、「AI技術の進化により、音声詐欺の手口がより巧妙になっている」と指摘し、企業や個人が警戒を強める必要があると警告している。

    AI音声詐欺への対策と注意点

    今回の事件は、AI技術の発展がもたらす新たな脅威を示している。企業や個人が同様の被害を防ぐためには、いくつかの対策が求められるだろう。

    まず、企業内の重要な決済や送金の承認プロセスを見直し、音声指示だけで処理が進まないようにすることが必要だ。たとえば、メールや社内チャットなど別の手段での確認を義務付けることで、不正のリスクを低減できる。また、音声認証システムを導入し、通話の真正性を判別する仕組みを整えることも有効だ。

    個人レベルでは、不審な電話や緊急性を強調する要求に対して慎重になるべきである。
    発信者番号が正規のものでも、すぐに対応せず、別の手段で本人確認を行うことが推奨される。特に、公に音声が流通している経営者や著名人は、自身の声が悪用される可能性があることを認識し、注意を払う必要がある。

    ※音声合成技術…AIが特定の人物の音声データを学習し、自然な発話を生成する技術。従来の合成音声よりもリアルな再現が可能で、詐欺やなりすましに悪用されるケースが増えている。

    🚀 AI・Web3業界への転職を考えているあなたへ

    「最先端技術に関わる仕事がしたい」「成長市場でキャリアを築きたい」そんな想いを抱いていませんか?

    Plus Web3は、AI・Web3領域などテクノロジーに投資する企業の採用に特化したキャリア支援サービスです。

    運営する株式会社プロタゴニストは、上場企業グループの安定した経営基盤のもと
    10年以上のコンサルタント歴を持つ転職エージェントが
    急成長する先端技術分野への転職を専門的にサポートしています。

    こんな方におすすめです

    ▼成長産業であるAI・Web3業界で新しいキャリアを始めたい
    ▼「未経験だけど挑戦してみたい」という熱意がある
    ▼今のスキルを最先端技術分野でどう活かせるか相談したい
    ▼表に出ない優良企業の情報を知りたい

    業界に精通したキャリアアドバイザーが、
    あなたの経験・スキル・志向性を丁寧にヒアリングし、
    最適な企業とポジションをマッチングします。

    Web3企業

    AI企業

    この記事が気に入ったら
    フォローしてね!

    • URLをコピーしました!
    目次