オープンAI、チャットGPTに保護者管理機能 子ども利用のリスク抑制へ

2025年9月29日、米オープンAIは対話型AI「チャットGPT」に保護者が子どもの利用を管理できる新機能を導入したと発表した。過激なコンテンツの抑制や利用時間の制御を可能にし、若年層への精神的悪影響に対応する狙いである。
親子連携で利用制御 緊急時は警察連絡も
オープンAIが導入した新機能は、親子でアカウントを連携させる仕組みを基盤とするもので、対象は主に10代が想定されている。
保護者は子どもの利用時間を制限できるほか、過激表現の表示を抑制できる。
子ども側が一方的に制御設定を解除した場合は、自動的に保護者に通知が届く設計であり、利用実態を可視化することが可能になる。
自傷行為に関するやり取りを行った場合、専門チームが内容を確認し、保護者にメールやアプリ通知で知らせる体制を構築するという。さらに生命の危険が切迫していると判断されれば、警察など外部機関へ通報する仕組みの整備も進められている。
安心感と制約のはざま AI利用をめぐる今後の論点
今回の新機能は、保護者にとっては安心感を高める仕組みである一方、利用者本人にとっては自由な学習や表現が制約される懸念もある。
管理機能を強化すればリスクは軽減できると思われるが、過度な制御は子どもの自律性を奪い、健全な成長を妨げる可能性もある。プライバシーの侵害や親子間の信頼関係に影響を及ぼすリスクも見逃せない。
とはいえ、危険なやり取りを早期に発見し、家庭や専門機関と連携して迅速に対応できる点はメリットだろう。AIをきっかけにした孤立や深刻なトラブルを防ぐ仕組みは、教育機関や行政にとっても有用と考えられる。
今後は技術的な制御機能だけでなく、家庭内でのAIリテラシー教育や利用ルールの共有が重要になりそうだ。
各国の法制度や教育現場の対応とも連動しながら、持続可能な利用モデルが模索されることになるだろう。
関連記事:ChatGPT、18歳未満に特別モード導入 自殺訴訟受け安全策を強化
https://plus-web3.com/media/latestnews_1002_5315/











