チャットGPT、未成年利用に保護者管理機能 16歳自殺受け安全策を強化

2025年9月2日、米オープンAIはチャットGPTに未成年利用者向けの「ペアレンタルコントロール」を導入すると発表した。来月から保護者が子どものアカウントを直接管理できる仕組みが加わり、利用中の安全対策が強化される見通しだ。
未成年アカウントを保護者と連携し管理可能に
オープンAIは2日、公式サイトで新機能「ペアレンタルコントロール」(※)の提供開始を公表した。
対象は10代の若年利用者で、保護者が自身のアカウントと子どものアカウントをひも付けることで使用状況を監督できるようになる。導入は10月中を予定している。
保護者はチャットGPTの回答が子どもの年齢に応じた内容になるよう設定できるほか、会話履歴を保持して個人情報や嗜好を学習する機能をオフにする選択も可能となる。加えて、システムが利用者の入力から深刻な悩みを抱えていることを検知した場合、保護者へ通知が送信される仕組みも備える。
背景には、AIが自殺方法を提示したことをきっかけに16歳の少年が命を絶ったとされる訴訟がある。先月、遺族がオープンAIとサム・アルトマンCEOを相手取り訴えを起こしており、同社は安全性に関する対応を一段と迫られていた。
今回の機能追加は、こうした社会的批判や法的リスクを受けた具体的な対策と位置づけられる。
※ペアレンタルコントロール:未成年者が利用するアプリやサービスにおいて、保護者が利用時間や機能を制限し、使用状況を監督できる仕組み。ゲーム機やスマートフォンで広く導入されている。
安全性向上と監視強化、利用拡大への影響は
ペアレンタルコントロールの導入は、未成年ユーザーが安心して生成AIを利用できる環境を整える一歩となる。
教育現場や家庭学習における活用が広がるなかで、保護者が安心して子どもに利用を許可しやすくなる点は大きなメリットといえる。特にAIが誤った情報や不適切な回答を返すリスクを軽減し、問題が深刻化する前に介入できる仕組みは評価されやすい。
一方で、保護者による監視強化は、子どものプライバシーを損ないかねない。
通知機能の基準が曖昧であれば、過剰な介入や誤作動につながる危険もある。さらに、保護者が十分に管理を行わなければ、制度が形だけに終わる懸念も拭えない。
安全性の担保と自主性の尊重という二つの課題のバランスをどうとるかが問われるだろう。
今後は各国の規制当局が生成AIの未成年利用にどのように対応するかも焦点になる。
欧州ではAI規制法の制定が進むなど法的枠組みの整備が進展しており、日本国内でも教育現場でのAI利用に関する議論が高まりつつある。
今回の動きは、グローバルに展開するAIサービスが社会的責任を果たすための一つのモデルになると考えられる。
OpenAI 公式声明:
https://openai.com/index/building-more-helpful-chatgpt-experiences-for-everyone/?utm_source=chatgpt.com
関連記事:米少年の両親、チャットGPTに責任追及 自殺方法提供でオープンAIを提訴
https://plus-web3.com/media/latestnews_1000_4995/