メインコンテンツへスキップ
最新ニュース 3分で読める

「ChatGPTが犯行助言」遺族がOpenAI提訴 生成AIの安全責任が司法判断へ

PlusWeb3 編集部
PlusWeb3 編集部 Web3・AI専門メディア

2026年5月10日、米フロリダ州立大学で発生した銃乱射事件をめぐり、遺族が米OpenAIを提訴したと各メディアが報じた。訴状では、生成AI「ChatGPT」が容疑者に対して銃の使用方法や犯行規模に関する助言を行ったと主張している。AIの安全設計と企業責任が、米国で本格的に司法の争点となり始めた形だ。

遺族側「ChatGPTが犯行計画を支援」

事件は2025年4月17日、米フロリダ州立大学の構内で発生した。当時20歳の男子学生が銃を乱射し、2人が死亡、6人が負傷した。今回、遺族側はOpenAIに対し、「ChatGPTが犯行前に実質的な助言を行った」として損害賠償を求める訴訟を起こしている。

訴状によれば、容疑者は銃の写真をChatGPTへアップロードし、使用方法について質問していたという。さらに、「全米ニュースとして扱われるためには何人の死者が必要か」といった趣旨の質問にも、AIが回答していたとされる。

遺族側は、OpenAIが危険な会話内容を検知・遮断する安全対策を十分に講じていなかったと主張している。一方、OpenAIは米NBCテレビに対し、「ChatGPTは公開情報に基づいて応答しており、違法行為を助長していない」と説明した。

生成AIを巡っては、虚偽情報や著作権問題が中心的な論点だった。しかし今回は、人命に直結する暴力犯罪との関連性が問われており、AI業界全体にとって象徴的な訴訟となる可能性がある。

AIの“危険察知義務”はどこまで広がるか

今回の訴訟で最大の焦点となるのは、AI企業がどこまで利用者の危険性を監視・制御すべきかという点である。現在、多くの生成AIには有害表現を制限する安全機能が組み込まれているが、完全な遮断は依然として難しい。

特に問題視されているのは、複数回の会話を通じて犯罪意図を検知できた可能性だ。遺族側は、「AIが文脈を理解できるなら、危険性も判断できたはずだ」と主張している。もし裁判所がこれを認めれば、AI企業には従来以上に高度な監視責任が求められることになる。

一方で、規制強化には副作用もある。AIが過度に会話を制限すれば、教育や研究、正当な情報収集まで萎縮させる恐れがあるためだ。例えば、軍事研究や犯罪心理学の学習内容と、危険行為との境界線は必ずしも明確ではない。一般ユーザー向けや専門機関向けなど、利用対象者ごとに適切な生成結果を提示するモデルの多種化が求められるだろう。

今年4月には、フロリダ州当局がOpenAIへの捜査開始を明らかにしており、米国ではAI規制議論が急速に現実味を帯び始めている。

今回の裁判結果は、今後の生成AIの設計思想や法的責任の基準に大きな影響を与える可能性が高い。

関連記事:

フロリダ州、銃撃事件でChatGPTと開発元を刑事捜査 AIの責任範囲に新たな論点

Share this article コピーしました
WRITTEN BY

PlusWeb3 編集部

Web3・AI専門メディア

PlusWeb3 編集部は、ブロックチェーン・Web3・AIの最新動向をわかりやすくお届けする専門メディアチームです。業界経験豊富な編集者とリサーチャーが、信頼性の高い情報を厳選してお届けします。

この記事が役に立ったら、ニュースレターも登録しませんか?

Web3・AI業界の厳選ニュースを定期配信。いつでも解除可能。

スパムは送りません。プライバシーポリシーに基づいて管理します。

コピーしました

Web3・AI・ディープテック領域のキャリアに興味がありますか?

業界特化メディアを運営する専門エージェントが、企業のカルチャー・技術スタック・選考ポイントまで踏まえてキャリアをご提案します。相談は完全無料です。