オープンAIのアルトマン氏が金融機関に警鐘 AI詐欺で音声認証に深刻な脆弱性

現地時間2025年7月22日、米オープンAIのサム・アルトマンCEOは、AIが他人になりすますリスクが急速に高まりつつあり、世界は「詐欺危機」の瀬戸際にあると警告した。
金融機関の音声認証の継続利用に対し、強い危機感を示している。
AIによるなりすまし詐欺の拡大に懸念、音声認証が突破される時代へ
オープンAIのサム・アルトマンCEOは、米連邦準備制度理事会(FRB)で行われたインタビューで、AIが人間の音声をリアルに再現できるようになったことで、音声認証による本人確認が危険な状態にあると訴えた。
「私が恐れているのは、どうやらまだ一部の金融機関が多額の資金の移動やそのほかのことについて、音声認証を受け入れているということだ。こんなことがまだ行われているのは常軌を逸している。AIは現在、人間がパスワード以外で認証する方法のほとんどを突破できる」と語り、特に音声認証が詐欺の温床になる可能性を指摘した。
アルトマン氏の発言は、AIによる詐欺行為への警鐘として注目できるが、FBIもすでに2024年、音声や映像を模倣した「クローン詐欺」に対し注意喚起を行っていた。
今年7月には、米国務省のルビオ氏になりすましたAI音声が、州知事や外交官らに接触を試みた事例が発覚している。
オープンAIは、ワシントンD.C.に30人規模の新オフィスを2026年初頭に開設する予定で、政策立案者への技術支援や官僚向けのAI研修などを進める見込みだ。
ホワイトハウスも「AIアクションプラン」の発表を控えており、規制と技術の両面からの対応が急務となっている。
アルトマン氏は「いまは音声通話だが、やがてはビデオ通話や『フェイスタイム』のように現実と見分けがつかないものになるだろう」と警告する。
オープンAI自身はこのようななりすまし技術の開発を行っていないとしつつも、世界はすぐにこの課題に直面するとの見通しを示した。
AI詐欺の脅威拡大にどう向き合うか 社会構造とセキュリティの再設計が急務
AIによる音声再現技術の発展には大きなメリットがある。
人間の声を忠実に再現できることは、アクセシビリティ向上や対話型AIの実用性を高められる。特に、高齢者や障害者との会話支援、カスタマーサービスの自動化など、社会的に有用な活用が期待できる。
しかし、デメリットはそれをはるかに上回る規模で現れつつある。
アルトマン氏が警告したように、音声認証はすでに突破可能な水準にあり、本人確認手段としての有効性を失いつつある。
特に金融機関がいまだに音声認証に依存している点は、サイバーセキュリティ上の重大な脆弱性を露呈していると言える。
すでに発覚した事例から見ても、政界や金融界などの権威を模倣した「クローン詐欺」は現実の脅威であり、もはや“未来のリスク”ではない。AIによる音声を中心とした詐欺リスクの拡大に対し、音声や映像による本人確認の仕組みそのものを再検討する必要性が生じている。
生体情報や音声に依存しないセキュリティ基盤の構築が、今後の金融機関や行政の信頼性を左右する鍵になるだろう。