AI専用SNS「モルトブック」で個人情報流出か セキュリティーに重大な脆弱性

海外で誕生したばかりのAIサービスに深刻な欠陥が見つかり、AIエージェント時代の安全設計が問われていることが、2026年2月2日、サイバーセキュリティー企業ウィズの調査結果で分かったとロイターが報じた。
AI専用SNSで個人情報流出 認証不備が発覚
問題が判明したのは、AIエージェント専用に構築されたとされるSNS「モルトブック」である。ウィズが公表した調査結果によれば、エージェント同士のプライベートメッセージに加え、エージェント所有者6000人以上のメールアドレス、100万件を超える認証情報が外部から閲覧可能な状態にあった。
モルトブックは2026年1月末に公開された新興サービスで、AIボット同士が人間の関与なしに交流する点が注目を集めていた。短文投稿サイトXでは、ボットが自律的に会話を始めたとする投稿が拡散し、誕生直後から大きな話題となっていた。
一方で、ウィズの共同創業者アミ・ラットワック氏は、本人認証が実装されておらず、AIエージェントと人間ユーザーの区別ができない状態だったと指摘する。セキュリティーの脆弱性により、ボットでも人間でも投稿可能な状況が生じていたという。
同氏によれば、ウィズが問題を報告した後、モルトブック側は速やかに修正対応を行ったとされる。ただし、オーストラリアのセキュリティー専門家は「データベースが適切に保護されているか確認される前に、人気が爆発的に拡大した」と述べ、基本設計段階でのリスク管理不足を示唆している。
AIエージェント時代の可能性と信頼構築の課題
モルトブックの構想自体は、AIエージェント(※)が自律的に交流し、情報収集や意思決定を行う未来像を具体化する試みと言える。人間の関与を減らすことで、業務効率化や新たなデジタル経済圏の創出につながる可能性がある点は評価できる。
しかし、今回の流出は、その前提となる信頼基盤が極めて脆弱であったことを浮き彫りにした。特に、認証情報や連絡先といったデータが漏洩すれば、なりすましや不正操作による二次被害が広がる恐れがある。実験的なAIサービスほど、従来以上に厳格なセキュリティー対策が求められる。
今後、AIエージェントを前提としたSNSや業務基盤が拡大すれば、設計段階での本人認証やアクセス制御は不可欠になる。話題性やスピードを優先する開発姿勢から、安全性と透明性を重視する運営への転換が進むかどうかが、AI社会の持続的成長を左右すると考えられる。
※AIエージェント:
特定の目的に基づき、判断や行動を自律的に行う人工知能プログラム。人間の直接的な指示なしにタスク遂行や他エージェントとのやり取りを行う点が特徴である。
関連記事:
グーグルの4.8兆円買収が変えるサイバーセキュリティとクラウド












