2026年2月27日、米OpenAIは、昨年カナダで発生した銃乱射事件の容疑者が利用していたChatGPTアカウントについて、現行の安全規約であれば法執行機関へ通報していた可能性が高いと明らかにした。
現行規則なら通報対象と公表
事件は2025年2月、カナダ西部ブリティッシュコロンビア州タンブラーリッジで発生した。容疑者ジェシー・バンルーツェラーは家族を殺害後、中等学校で6人を銃撃し、その後自死したと報じられている。
OpenAIは同年6月、暴力行為に関連する利用が疑われたとして当該ChatGPTアカウントを停止した。ただし当時は差し迫った攻撃の兆候は確認できなかったため、警察への通報は行わなかったと説明している。
今回同社は、数か月前に安全方針を改定したと明かした。対話内容が現実的な危険に該当するかを判断する際、メンタルヘルスや行動科学、法執行の専門家に助言を求める体制へ移行し、強化された通報プロトコル(※)を導入したという。グローバルポリシー担当副社長アン・M・オレアリー氏は、同様の事案が現在判明した場合は法執行機関へ通報することになると書簡で述べた。
さらに同社は、カナダ当局と直接連絡できる体制を構築する方針も示している。危険性が高いと判断したケースでは、迅速に情報共有を行う枠組みを整備する考えだ。
※通報プロトコル:AI利用内容が差し迫った危険に該当するかを評価し、法執行機関へ通知するかどうかを定めた内部基準や手続き。
未然防止と監視強化の分岐点
今回の方針転換は、生成AI企業が単なる技術提供者からリスク検知主体へと役割を広げる動きと捉えられる。危険兆候を早期に察知し通報できれば、重大事件の未然防止につながる可能性がある。
一方で、誤検知や過剰通報が常態化すれば、利用者のプライバシーや表現の自由への影響が懸念される。大規模言語モデル(※)は文脈を統計的に推定する仕組みであり、「現実的脅威」の線引きには難しさがあると指摘される。
今後は各国でAI事業者に対する通報義務や情報開示基準の整備が進む可能性がある。安全確保と市民的自由のバランスをどう設計するかは、生成AIの社会実装を左右しかねない重要な論点と言える。
※大規模言語モデル:大量のテキストデータを学習し文章生成や対話を行うAI基盤技術。高度な応答が可能な一方、判断の不確実性も内在する。
関連記事:
