2026年4月23日、米OpenAIのサム・アルトマンCEOが、カナダで発生した銃撃事件を巡り謝罪した。容疑者が事前に「ChatGPT」に犯行を相談していた事実を把握しながら通報しなかった対応が明らかとなり、AI企業の責任範囲が問われている。
事前相談把握も通報せず謝罪
発端は、2026年2月にカナダ西部ブリティッシュコロンビア州で発生した銃撃事件である。18歳の容疑者が家族や生徒ら8人を殺害した後、自ら命を絶つという深刻な事案となった。
その後の調査で、容疑者は2025年6月時点でChatGPTに対し犯行計画を相談していたことが判明した。OpenAIは当該やり取りを把握し、利用規約違反としてアカウント停止措置を講じたが、通報基準には該当しないと判断し警察への通報は行わなかったとされる。
2026年4月23日、アルトマンCEOは地域住民に宛てた書簡で「通報しなかったことを深くお詫びする」と謝罪した。「言葉だけでは不十分だが、被害の重大性を認識するために謝罪が必要だ」と述べ、再発防止に取り組む姿勢を示している。
一方、ブリティッシュコロンビア州の首相は「謝罪は必要だが、到底十分とは言えない」と批判しており、企業判断の妥当性と説明責任が強く問われる状況となっている。
安全強化と自由の均衡が焦点に
今回の事案は、AIにおけるリスク検知と通報判断のあり方を再定義する契機となる可能性がある。生成AIが危険兆候を早期に検知し、適切に介入できれば、重大犯罪の未然防止につながる可能性があり、その意義は小さくない。
今後は、高リスクと判断される相談内容に対するエスカレーション基準の明確化や、法執行機関との連携強化が進むとみられる。企業単独の判断では限界があるため、制度的なガイドライン整備が議論される局面に入る可能性が高い。
一方で、過度な監視や通報の常態化は、プライバシーや表現の自由への影響を招く懸念がある。ユーザーの意図が曖昧な段階での通報が増えれば、AI利用そのものへの萎縮が生じる可能性も否定できない。
今後は、安全確保と権利保護のバランス設計が重要な論点になると考えられる。AIの社会実装が進む中で、企業の自主規制に加え、各国政府による一定のルール整備が求められる可能性がある。
関連記事: