KDDIがResemble AIへ出資 AIによる不正検知でディープフェイク対策へ

KDDI株式会社は、生成AIを活用した不正検知技術を手がける米Resemble AIへの出資を発表した。
ディープフェイク詐欺の拡大を背景に、海外スタートアップとの連携を通じて日本国内のAI悪用対策を強化する動きとして位置づけられる。
KDDI、CVC通じ米Resemble AIへ出資
2025年12月9日、KDDIは、コーポレートベンチャーファンド「KDDI Open Innovation Fund V」を通じ、米国のAIスタートアップResemble AI Incへ出資したと発表した。
同ファンドは、AIやDeep Tech分野における有望企業との事業共創を目的として運営されている。
Resemble AIは、生成AIによる偽音声・偽映像、いわゆるディープフェイク(※)を用いた不正行為をリアルタイムで検知する技術を提供する企業である。
発表によれば、同社は人間とAIエージェントの双方を標的とした不正行為への対応を掲げ、エンタープライズ向けに検知モデルを展開してきた。
近年、ディープフェイクを悪用した詐欺被害は世界的に増加しており、関連する被害額は15.6億ドルに達している。
米国市場では、こうした詐欺による損失が2027年までに400億ドル規模へ拡大する可能性が示されている。
Resemble AIの主力モデル「DETECT-3B Omni」は、大手企業や政府機関での採用実績を持ち、Hugging Faceのディープフェイク検出リーダーボードにおいて主要評価基準で1位を獲得したとされる。
加えて、Google Gemini 3を搭載した分析基盤「Resemble Intelligence」を通じ、複数メディアを横断した検知結果の提供を行っている。
※ディープフェイク:生成AIなどを用いて、実在する人物の音声や映像を精巧に偽造する技術。詐欺やなりすましへの悪用が国際的な課題となっている。
通信事業者主導の不正対策が持つ可能性と課題
今回の出資は、通信事業者が生成AI時代の不正検知領域に関与を深める点で意義がある。
ディープフェイク対策は金融やEC、行政手続きなど幅広い分野に関係しており、通信基盤を持つ企業が関与することで、本人確認や認証プロセスの信頼性向上につながる可能性がある。
一方で、AIによる検知精度が高まるほど、誤検知時の影響も大きくなる。
正当な利用者が不利益を被るリスクや、検知モデルが新たな不正手法へ継続的に対応できるかといった運用面の課題は残る。
また、海外スタートアップ技術の国内展開には、法制度や業界慣行への適合が求められる。
技術導入そのものだけでなく、日本市場に合わせた運用設計や説明責任の確立が不可欠となるだろう。
生成AIを巡る「攻撃」と「防御」の高度化競争が進む中で、今回の連携が日本における不正対策の実効性向上につながるかどうかは、今後の実装と運用の在り方に左右されると言える。
関連記事:
KDDIが高精度AIエージェントを開発 人間の応対再現で精度90%を実現












