メインコンテンツへスキップ
最新ニュース 3分で読める

加銃乱射事件のChatGPT利用巡り、OpenAIが説明 同様事案は警察通報対象に

PlusWeb3 編集部
PlusWeb3 編集部 Web3・AI専門メディア

2026年2月27日、米OpenAIは、昨年カナダで発生した銃乱射事件の容疑者が利用していたChatGPTアカウントについて、現行の安全規約であれば法執行機関へ通報していた可能性が高いと明らかにした。

現行規則なら通報対象と公表

事件は2025年2月、カナダ西部ブリティッシュコロンビア州タンブラーリッジで発生した。容疑者ジェシー・バンルーツェラーは家族を殺害後、中等学校で6人を銃撃し、その後自死したと報じられている。

OpenAIは同年6月、暴力行為に関連する利用が疑われたとして当該ChatGPTアカウントを停止した。ただし当時は差し迫った攻撃の兆候は確認できなかったため、警察への通報は行わなかったと説明している。

今回同社は、数か月前に安全方針を改定したと明かした。対話内容が現実的な危険に該当するかを判断する際、メンタルヘルスや行動科学、法執行の専門家に助言を求める体制へ移行し、強化された通報プロトコル(※)を導入したという。グローバルポリシー担当副社長アン・M・オレアリー氏は、同様の事案が現在判明した場合は法執行機関へ通報することになると書簡で述べた。

さらに同社は、カナダ当局と直接連絡できる体制を構築する方針も示している。危険性が高いと判断したケースでは、迅速に情報共有を行う枠組みを整備する考えだ。

※通報プロトコル:AI利用内容が差し迫った危険に該当するかを評価し、法執行機関へ通知するかどうかを定めた内部基準や手続き。

未然防止と監視強化の分岐点

今回の方針転換は、生成AI企業が単なる技術提供者からリスク検知主体へと役割を広げる動きと捉えられる。危険兆候を早期に察知し通報できれば、重大事件の未然防止につながる可能性がある。

一方で、誤検知や過剰通報が常態化すれば、利用者のプライバシーや表現の自由への影響が懸念される。大規模言語モデル(※)は文脈を統計的に推定する仕組みであり、「現実的脅威」の線引きには難しさがあると指摘される。

今後は各国でAI事業者に対する通報義務や情報開示基準の整備が進む可能性がある。安全確保と市民的自由のバランスをどう設計するかは、生成AIの社会実装を左右しかねない重要な論点と言える。

※大規模言語モデル:大量のテキストデータを学習し文章生成や対話を行うAI基盤技術。高度な応答が可能な一方、判断の不確実性も内在する。

関連記事:

OpenAIがChatGPT悪用報告書を公表 中国関連やロマンス詐欺などのアカウントを停止

米35州がAI州法阻止に反発 連邦基準未整備で規制主導権争いが激化

Share this article コピーしました
WRITTEN BY

PlusWeb3 編集部

Web3・AI専門メディア

PlusWeb3 編集部は、ブロックチェーン・Web3・AIの最新動向をわかりやすくお届けする専門メディアチームです。業界経験豊富な編集者とリサーチャーが、信頼性の高い情報を厳選してお届けします。

記事を寄稿しませんか?

Web3・AI領域の専門家からの寄稿を募集中。掲載は編集部名義、内容は事前審査のうえ掲載可否をご連絡します。

この記事が役に立ったら、ニュースレターも登録しませんか?

Web3・AI業界の厳選ニュースを定期配信。いつでも解除可能。

スパムは送りません。プライバシーポリシーに基づいて管理します。

コピーしました

Web3・AI・DeepTech領域でのキャリアをお考えですか?

業界専門のコンサルタントが、あなたに最適なキャリアパスをご提案します。