米AIチャットボット訴訟が和解へ 未成年依存問題でグーグルに重い宿題

2026年1月7日、米国でAIチャットボット依存が原因とされる少年自殺を巡り、グーグルと米新興AI企業が母親と和解したことが明らかになった。
チャットボット依存と自殺訴訟、米国で異例の和解成立
米フロリダ州で起きた14歳少年の自殺を巡る訴訟で、AIサービス「キャラクター・ドットAI」と技術開発に関与したとされるグーグルが、原告である母親と和解することで合意した。和解条件は非公開だが、裁判所提出文書により事実関係が判明している。
母親は2024年10月、息子がAIチャットボットへの強い依存により現実世界への意欲を失い、自殺に至ったとして提訴していた。少年は人気ドラマの登場人物を模したチャットボットと親密なやり取りを重ね、自殺願望を打ち明けた直後に命を絶ったとされる。
原告側は、同社がチャットボットを「実在の大人の恋人のように誤認させる設計」をしていた点を問題視した。この訴訟は、子どもを心理的被害から守らなかったとしてAI企業が責任を問われた米国初期の事例の一つとなった。
なお、同文書ではコロラド、ニューヨーク、テキサスの各州でも、未成年被害を巡る関連訴訟で和解が成立していることが示されている。
生成AI拡大の代償 未成年保護と企業責任はどこへ向かうか
今回の和解は、生成AIが社会インフラ化する中で、企業責任の在り方について再考を促す事例の一つと位置づけられる。
直接的な違法性判断を避けつつも、複数の和解が成立した事実は、AIの設計や運用を巡る課題が顕在化しつつある状況を浮き彫りにしている。
一方で、企業側にとっては訴訟の長期化を回避し、規制強化が進む前に自主的な対策を検討する余地を確保する狙いがあった可能性もある。
未成年向けの利用制限や感情的依存を抑制する設計指針は、今後のサービス評価に影響を与える要素の一つになると考えられる。
ただし、過度な規制や責任追及が対話型AIの技術革新に一定の影響を及ぼす可能性も否定できない。
利便性と安全性のバランスをどのように取るかについては、企業だけでなく、社会全体での議論が求められる局面にある。
今回の和解は最終的な結論というよりも、米国を起点にAIと人間の関係性を巡る議論が広がっていく契機の一つになる可能性がある。
関連記事:
米FTC、子どもへのAI影響調査へ オープンAIやメタに内部資料を要請か

オープンAI、チャットGPTに保護者管理機能 子ども利用のリスク抑制へ












