米フロリダ州の司法長官が、大学で発生した銃撃事件を巡り、生成AI「ChatGPT」と開発元のOpenAIに対する刑事捜査の開始を発表した。
AIの助言が犯罪に関与した可能性を巡り、責任の所在が問われている。
銃撃事件でAI関与を刑事捜査
2026年4月21日、フロリダ州司法長官ジェームズ・ウスマイヤー氏は、州全体検察局がOpenAIおよび同社の対話型AI「ChatGPT」に対する刑事捜査を開始したと明らかにした。
発端は、2025年4月にフロリダ州立大学で発生した銃撃事件であり、学生が発砲し2人が死亡、6人が負傷した事件である。
捜査当局は、被告とChatGPTのチャット履歴を初期的に確認した結果、使用する銃の種類や、多数の人を狙いやすい時間帯・場所に関する助言が含まれていたとみて、犯罪を助長する行為がなかったかを調べている。
ウスマイヤー氏は「もしChatGPTが人間であれば殺人罪で訴追されていた」と述べ、AIの関与を強く問題視した。
州法では、犯罪を援助・教唆・助言した者も実行犯と同様に責任を問われる可能性がある。
今回の捜査は、ChatGPTの出力やOpenAIの管理体制がこの枠組みに照らして問題となり得るかを検証するものといえる。
検察はOpenAIに対し、内部ポリシーやトレーニング資料、法執行機関との連携方針などの提出を求めている。
一方、米メディアによると、OpenAIは「インターネット上で広く公開されている情報に基づき、事実に即した回答を提供した。
違法・有害な活動を助長してはいない」と反論しつつ、捜査には協力する姿勢を示している。
AI責任の境界線、司法が示す新基準
今回の事案は、これまで抽象的だったAIの責任問題が、司法の場で具体的に検証される契機になる可能性がある。
刑事捜査という枠組みで議論が進むことで、安全設計やガバナンスの重要性が一段と明確になり、ログ管理やリスク検知機能の高度化など、企業側の対応強化が加速していくとみられる。
一方で、責任の境界が整理されないまま規制だけが先行するリスクが懸念される。
生成AIはユーザー入力に依存する特性を持つため、その出力をどこまで助言や教唆と認定するかは依然として曖昧だとみられる。
仮に開発企業へ広範な責任が課されれば、過度なリスク回避が進み、有用な情報提供まで制限される可能性もある。
今後は、AIの出力と人間の行為責任の切り分けが主要論点として浮上していくとみられる。
類似事例の蓄積を通じて司法判断が重なれば、一定の基準が徐々に形成されるだろう。
ただし、単一の国や州に閉じた枠組みではなく、国際的なルール整備へと議論が拡張していく流れも考えられる。
結果として、技術革新と規制の均衡を探る新たなガバナンスモデルが模索されていく可能性が高い。
関連記事:
窃盗事件でChatGPTの生成AI履歴がデジタル証拠に 捜査で関与裏付け

加銃乱射事件のChatGPT利用巡り、OpenAIが説明 同様事案は警察通報対象に

グーグル、Geminiに自傷検知と支援誘導機能 AI訴訟拡大で安全設計を強化
