オープンAI、自殺訴訟で文書提出 チャットGPTの責任を否定

2025年11月25日、米カリフォルニア州で進むチャットGPT関連訴訟で、開発元のオープンAIが「自殺はチャットGPTが原因ではない」とする文書を裁判所に提出した。AIの責任範囲をめぐる議論が再燃している。
オープンAI、自殺助長の疑いを全面否定し因果関係を争点化
カリフォルニア州で進む訴訟は、16歳の少年が自殺した要因として、チャットGPTの不適切な回答が影響したと両親が主張したことに端を発した。両親はオープンAIと同社CEOサム・アルトマン氏を相手取って提訴し、AIが危険な回答を示したことで精神状態が悪化した可能性を訴えている。
これに対してオープンAIは25日、少年の自殺とチャットGPTの回答には因果関係がないとする文書を裁判所に提出した。
同社は、少年には「チャットGPTの利用を始めるずっと前から自殺願望などの危険な兆候があった」と強調した。また、チャットGPTは会話の中で100回以上にわたり信頼できる人物に相談するよう促していたと説明している。
同種の訴訟は今月6日にも提起されており、アメリカで自殺した4人の遺族が「チャットGPTが自殺願望を助長した」としてオープンAIを訴えている。
複数の訴訟が並行して進むことで、AIの安全性、設計基準、法的責任をどこまで企業側に求めるかが、司法の判断によって左右される局面に入りつつある。
AI責任の線引きは不透明 規制強化か萎縮かが分岐点に
今回の訴訟による判決次第で、AIサービス全体の開発方針を左右する可能性がある。もし司法がAIの回答内容に対して企業の広範な責任を認める方向に傾けば、各社は安全対策をさらに強化し、リスクの高い応答を機械的に排除する方向に向かうだろう。この結果、ユーザー保護が強化されるというメリットが生まれる一方、対話の自由度が大幅に下がり、サービス体験の質が損なわれる懸念も残る。
逆に、因果関係の立証が難しいという理由で企業責任の範囲が限定的にとどまれば、開発企業が萎縮するリスクは軽減されるとみられる。
生成AIの進化が阻害されにくくなるという利点があるが、同時に安全策の強化が後回しになり、ユーザーが抱えるリスクを十分に軽減できない可能性がある。
これらのバランスをいかに取るかが、今後の規制議論における中心的な論点になりそうだ。
AIとユーザー行動の因果関係をどのように評価するかは、技術的にも法的にも未成熟な領域であり、今回の裁判による判決はその指標になりうる。判決内容は業界の設計指針や投資判断、さらには各国で進むAI規制の流れにも影響を及ぼすとみられる。
技術革新のスピードが加速する中で、社会がどのような責任の枠組みを選択するかが問われている。
関連記事:
AI対話後に自殺した子の親、米上院で規制訴え 企業の安全対策に限界指摘












