AIデータ×NII、ディープフェイク対策へ AI映像鑑定基盤の検証を開始

2025年12月9日、AIデータ株式会社は、国立情報学研究所(NII)が開発を進めるフェイク映像判定AI「SYNTHETIQ VISION」を活用し、ディープフェイクに対抗するAI映像鑑定基盤の検証を開始した。
映像の真偽を客観的に評価する仕組みの構築に向けた取り組みとなる。
ディープフェイク犯罪に対抗 AIデータ社が映像鑑定基盤の検証を開始
ディープフェイク(※1)を悪用した犯罪や誹謗中傷が世界的に増加する中、AIによる真偽判定技術の社会実装が急務となっている。
SNS上では著名人の偽動画や、児童の顔をポルノ映像に合成した動画が拡散し、名誉毀損やプライバシー侵害が深刻化している。
さらに、AI生成映像を利用したeKYC(※2)詐欺や偽発言動画による株価操作など、行政・金融分野にも被害が拡大している。
9日、AIデータ株式会社はこの課題に対し、国立情報学研究所(NII)が研究開発するフェイク映像判定AI「SYNTHETIQ VISION」を活用し、社内にAI映像鑑定基盤の検証環境を構築したことを発表した。
同システムは、生成映像に特有の微細な痕跡を解析し、真偽の可能性をスコアとして出力することを可能にする構成だ。
圧縮や再エンコードなどの加工後の映像に対しても検出性能の維持を目指したモデル構成となっており、判定結果やログを保存して後から再検証や監査で参照できるアーキテクチャを備えている。
現在は実証フェーズにあり、犯罪事例を想定した映像データによるテストや、法的証拠としての扱い方、内部統制・監査への応用可能性などを評価している。
今後は捜査機関や教育現場、金融機関、自治体などとの共同検証を視野に、実務導入に向けた運用フローやルールの整備を検討していく方針だ。
※1 ディープフェイク:AIが人物の顔や声を合成し、実際には存在しない映像を生成する技術。
悪用により詐欺や名誉毀損が発生している。
※2 eKYC:electronic Know Your Customerの略。オンラインで本人確認を行う仕組み。
AI映像鑑定が拓く「真偽判定の新基準」
AIデータとNIIが進める映像鑑定基盤の実証は、ディープフェイク被害の増加に対し、信頼できる防御策を築く可能性がある。
AIによる自動判定は、従来専門家の経験に頼っていた映像の真偽判定を定量的に可視化し、監査性と再現性を高める点で大きな前進といえるだろう。
特に、報道や行政、金融といった高い信頼性が求められる分野での導入が進めば、社会全体の安心感を底上げする契機となるかもしれない。
一方で、AIモデルの誤検出やバイアスが残る限り、過信は危険だと考えられる。
学習データの偏りや環境条件の変化によって誤判定が生じれば、誤った情報拡散や法的混乱を招く恐れもある。
また、AI判定結果の法的な位置づけや説明責任をどう制度化するかは、今後の課題として避けて通れないだろう。
今後は、AI判定の透明性を担保しつつ、人間の検証プロセスを補完する仕組みづくりが焦点になるとみられる。
信頼と倫理を両立させたAI鑑定が定着すれば、「AIが社会の真偽を支える時代」への道が拓かれるかもしれない。
関連記事:
KDDIがResemble AIへ出資 AIによる不正検知でディープフェイク対策へ

富士通が国際偽情報対策網を創設 AI悪用リスクに57社で立ち向かう

インド政府、AI生成物への識別ラベル義務化へ ディープフェイク拡散防止で規制強化案を公表












