米OpenAIはChatGPTに新たな安全機能「Trusted Contact(信頼できる連絡先)」を順次導入すると発表した。
自傷・自殺リスクが高いと判断された際、事前登録した家族や友人へ通知できる仕組みで、成人利用者向けの安全対策を強化する。
ChatGPT、自傷懸念時に第三者へ通知
2026年5月7日にOpenAIが導入を発表した「Trusted Contact」は、ChatGPT利用者があらかじめ信頼できる成人1人を登録できる安全支援機能である。
対象は18歳以上の利用者で、韓国では19歳以上に限定される。
登録された相手は1週間以内に招待を承認する必要があり、承認後に機能が有効化される仕組みだ。
特徴的なのは、AIによる自動検知だけで完結しない点にある。
ChatGPTの監視システムと訓練済みレビュー担当者が、自傷行為に関する深刻な懸念を検知した場合、まず利用者本人へTrusted Contactに連絡する可能性を案内する。
同時に、本人が自発的に家族や友人へ相談できるよう、会話のきっかけとなる例文なども提示される。
その後、専門訓練を受けた担当者が内容を確認し、実際に重大な安全リスクがあると判断した場合のみ、登録済みのTrusted Contactへ通知が送信される。
連絡手段はメール、SMS、ChatGPTアプリ内通知などを想定しており、通知内容は限定されている。
会話全文や詳細なチャット内容は共有されず、「自傷に関する懸念が確認された」という事実と、状況確認を促すガイドが提供される仕組みだ。
OpenAIによれば、この機能は従来の未成年向け安全通知機能を成人領域へ拡張したものになるという。
開発には米国心理学会を含む研究機関や医療関係者が参加しており、170人以上のメンタルヘルス専門家とも連携している。
利用者は設定画面から連絡先を随時変更・削除でき、登録側も解除申請が可能だ。
※自傷リスク検知:AIや人間のレビュー担当者が、会話内容から自傷・自殺に関する深刻な危険性を推定する仕組み。近年は生成AIサービスでも安全対策として導入が進んでいる。
AIが“見守り役”化する時代へ
今回のTrusted Contact導入は、生成AIが単なる情報ツールから、利用者の心理状態を継続的に観測する存在へ変化しつつあることを象徴しているだろう。
ChatGPTは日常的な相談相手として利用される場面が増え、より個人的な悩みの受け皿にもなりつつあるとみられる。
そのため、危機的状況を早期に検知し、人間との接点へ接続する役割は今後さらに重要になる可能性がある。
一方で、この仕組みには慎重な議論も必要だと考えられる。
最大の論点は、AIがどこまで個人の精神状態へ介入すべきかという点にあるだろう。
誤検知によって本人の意図しない通知が行われた場合、プライバシーや対人関係へ影響を与えるリスクは否定できない。
また、精神的な苦悩を抱える利用者が、「監視される感覚」から率直な相談を避ける可能性もある。
特に生成AIは、検索エンジンとは異なり、長時間の対話履歴を通じて利用者の感情変化を把握しやすい。
そのため、安全支援と監視の境界線は今後ますます曖昧になっていくと考えられる。
OpenAIは「すべての通知に人間による確認を行う」と説明しており、原則1時間以内のレビュー体制を目指すとしているが、利用者側の信頼を維持できるかが普及の鍵になると言えそうだ。
関連記事:
グーグル、Geminiに自傷検知と支援誘導機能 AI訴訟拡大で安全設計を強化

OpenAI、ChatGPTに年齢予測機能を実装 18歳未満の利用を自動で制限
