生成AIで警察になりすまし詐欺 リアルタイム顔差し替え、日本人8人から1900万円被害

2026年1月30日、マレーシア警察が摘発した特殊詐欺グループが、生成AIを用いた「リアルタイムディープフェイク」で警察官になりすまし、日本人から現金をだまし取っていたことが報じられた。
生成AIで警察手帳の顔を偽装、国際詐欺
摘発されたのは日本人4人と台湾出身の男ら計10人で、マレーシアを拠点に日本向けの特殊詐欺を繰り返していた。主犯格の葛籠匡矢被告らは大阪府警の警察官を名乗り、東京都内の70代男性とビデオ通話を実施。捜査対象になっていると脅し、現金500万円を騙し取ったとして起訴された。
通話では偽の逮捕状や警察手帳を提示し、公的機関らしい外観で信頼を演出していた。さらに男らは生成AIを使い、制服姿の人物の顔を警察手帳の写真に即時変換する「リアルタイムディープフェイク(※)」を導入。画面上では本人と同一人物に見えるため、被害者は不審を抱きにくかったとみられる。
実際の会話は別室の日本人メンバーが担当し、映像の人物は口を動かすだけという分業体制だった。
グループは2025年6月以降、日本人8人から計約1900万円をだまし取った疑いがあり、AI技術が国境を越えた詐欺の精度を押し上げた形だ。
※リアルタイムディープフェイク:AIで人物の顔や表情、音声をその場で合成・置換する技術。ライブ通話中でも別人の外見に変換でき、本人確認を欺く用途に悪用される危険が指摘されている。
利便性の裏で拡大するAI犯罪リスク
生成AIは本来、映像制作や遠隔接客、教育分野での活用が期待される技術であり、少人数でも高度なコンテンツを生み出せる点が大きな利点である。
しかし同じ機能は、身分証明や顔認証を前提とする社会インフラの弱点にもなる。
映像そのものが改ざん可能となれば「画面越しの本人確認」は根拠を失い、高齢者や海外在住者など遠隔接触に頼る層ほど被害を受けやすい。「
信頼を可視化する技術」が、逆に「信頼を破壊する矛盾」ともなり得る実情を露呈したと言える。
今後はAI生成コンテンツの検知技術や、端末側で真正性を証明する電子署名、多要素認証の導入が不可欠になるだろう。
利便性と安全性の設計競争が、デジタル社会の新たなテーマになりつつある。
関連記事:
インターポール捜査官にAI犯罪対策を演習提供 GMOサイバーセキュリティが38カ国108人に技術支援












