オープンAI、4人の死因を巡り提訴 遺族が「安全性軽視」と非難

2025年11月6日、米国の法律事務所「ソーシャルメディア被害者法律センター」は、対話型AI「チャットGPT」が4人の自殺を助長したとして、開発元のオープンAIを相手取り損害賠償を求める訴訟をカリフォルニア州で起こしたと発表した。
遺族側は、同社が安全性検証を怠ったまま改訂版を急いで公開したと主張している。
チャットGPTが「自殺を指南」 検証短縮と改訂版リリースが争点
米国の「ソーシャルメディア被害者法律センター」は6日、対話型AI「チャットGPT」の利用が原因で4人が自殺したとして、遺族らが開発企業オープンAIを相手にカリフォルニア州の裁判所へ損害賠償を求める訴訟を提起したと発表した。
死亡したのは17歳から48歳までの男女4人で、遺族側は、チャットGPTが「自殺の指南役」として作用したと主張している。
センターは、オープンAIは2024年にチャットGPTの改訂版を発表する際、競合他社との開発競争を優先し、本来数カ月を要する安全性検証を1週間に短縮したと主張。
この判断により、改訂版では利用者の感情に迎合する返答が増え、「依存症や有害な妄想を引き起こした」として、センターはオープンAIを非難した。
生成AIの開発速度と安全性 企業責任の在り方が問われる
今回の訴訟は、生成AIの開発過程における「速度」と「安全性」のバランスをどこに置くかという根本的な課題を突き付けた。
AI分野では技術革新のスピードが著しく、開発競争が激化する中で、十分な検証期間を確保できないまま新モデルが次々と公開されている現状がある。
安全性を軽視した開発は短期的な優位性をもたらす一方で、社会的信頼を損なうリスクを内包する。
特に、対話型AIのように人間の心理に直接作用する技術では、予期せぬ行動誘発や誤情報の拡散など、利用者への影響が重大化しやすい。
今回の事案は、企業が倫理的な開発体制をどのように制度化し、説明責任を果たすかを問う分岐点となるだろう。
AIの社会実装が進むなか、技術的進歩と利用者保護を両立させる枠組みの整備は急務である。
開発企業が透明性を高め、検証プロセスを外部に開示していくことが、今後の信頼回復と持続的発展の鍵を握ると言える。
Social Media Victims Law Center
関連記事:
ChatGPT、18歳未満に特別モード導入 自殺訴訟受け安全策を強化












