OpenAI、ChatGPTに休憩リマインダー導入 AI依存リスク軽減へ

2025年8月4日、米OpenAIは、対話型AI「ChatGPT」に長時間利用時の“休憩”リマインダー機能を導入することを明らかにした。
また、メンタルヘルス対応の強化に向け、専門家や諮問グループと連携しているとも明かした。
背景には、AIとの対話が一部ユーザーの精神的依存を助長したとの報告がある。
ChatGPTが精神的困難の兆候をより的確に検知へ
OpenAIは今週にも次世代モデル「GPT-5」の公開が期待されるなか、既存の「ChatGPT」への安全機能の強化を進めている。
特に注力しているのが、精神的・感情的な困難を抱えるユーザーに対する対応である。
具体的には、AIがユーザーの発言から精神的苦痛の兆候をより正確に検知し、必要に応じて「エビデンスに基づくリソース」を提示する取り組みを進めている。
これにあたって、精神医療の専門家や外部アドバイザリーグループと連携して開発を行っていると明かされた。
背景には、AIが妄想や依存的な発言に同調してしまい、利用者の精神状態を悪化させたとされる複数の事例報告がある。
OpenAIは、2025年4月に“同調的すぎる”アップデートを撤回した経緯もあり、今回の対応はその反省を踏まえたものとされる。
現行モデルGPT-4oについて、OpenAIは「妄想や感情的依存の兆候を適切に認識できなかった」と課題を認めており、AIの“応答性の高さ”がかえって人間的に感じられることで、脆弱なユーザーが過剰に依存するリスクがあると指摘している。
“休憩通知”で健康的な利用を促す 利便性とのバランスは課題に
OpenAIは、こうした問題への対策として、新たに「休憩リマインダー」機能の導入を発表した。
ユーザーがChatGPTとの対話を長時間続けている場合、「少し休憩しませんか?」といった通知を表示し、「会話を続ける」か「終了する」かの選択肢を提示する仕組みだ。
これはYouTubeやTikTok、Instagramなど他の大手プラットフォームでも導入されている機能であり、長時間使用による疲労や依存の予防を目的としている。
OpenAIは今後、通知の頻度や表示タイミングについて継続的に調整を行うとしている。
また、今後のアップデートでは、ユーザーからの高リスクな相談(例:「恋人と別れるべきか」)に対し、明確な答えを提示するのではなく、選択肢や影響を示しながら対話を通じて検討を促す仕様に変更する予定だという。
心理的なリスクを低減させるための複合的な措置が取られている。
一方で、利便性の低下を懸念する声も出る可能性がある。
多くのユーザーはChatGPTを業務や学習で活用しており、通知が作業の妨げになるとの指摘も予想される。
OpenAIは、精神的健康の保護とユーザー体験の最適化を両立させる難しさに直面している。
今後は、精神医療分野でのエビデンスに基づく改善と、AIの透明性確保が問われる局面が増えるとみられる。