メタ、インスタの対話型AIに年齢制限導入へ 保護者が利用を制御可能に

2025年10月17日、米メタ(旧フェイスブック)は、写真共有アプリ「インスタグラム」に搭載する対話型AI(人工知能)について、17歳以下の利用を保護者が制限・禁止できる新機能を2026年初めに導入すると発表した。AIの悪影響を懸念する声が高まる中での対応となる。
AIが子供に与える影響に懸念 保護者が利用制限や会話確認を可能に
メタが導入する新機能では、保護者が自身のインスタグラムアカウントと子供のアカウントを連携させることで、対話型AIの利用状況を管理できるようになる。保護者はAIとの会話内容を確認できるほか、アプリの利用時間を1日15分までに制限する設定も可能だ。
同社はさらに、自殺や過度なダイエットなどのセンシティブな内容に関して、AIが回答することを制限するフィルタリング機能を追加するとしている。
新たな制限機能は、まず米国や英国など英語圏を中心に展開される予定であり、日本での導入時期は未定とされている。
背景には、AI利用による精神的影響への社会的懸念がある。米国では2025年4月、ChatGPTを使用していた16歳の高校生が自殺する事件が発生し、AIへの依存と孤立の関連性をめぐる議論が広がった。
AIの「家庭内管理」進むか 利便性と心理的安全のはざまで問われる判断
今回のメタの方針は、AIが子供の生活に関わる機会が増える中での「家庭のガバナンス強化」と見ることもできる。一方で、技術の進歩をどう安全に受け入れるかという新たな課題も浮かび上がった。
メリットとしては、AIが未成年に過剰な影響を与えるリスクを抑え、心理的な安全の確保につながる可能性がある点が挙げられる。特にAIとの長時間対話が孤独感を助長する恐れが指摘される中で、親が利用状況を把握できる仕組みは一定の安心感をもたらす可能性がある。
しかし、利用制限が過剰になれば、AIを学習や創作活動に活用する機会を奪う恐れもある。AIは学習支援やアイデア生成など、教育面での可能性も広がっており、単純な禁止では子供のデジタルリテラシーの向上を阻む懸念もある。
今後は、AIとの適切な距離感をどう保つかが焦点になる。企業による安全設計の徹底に加え、家庭や教育現場での「AIとの付き合い方」に関する教育が求められるだろう。メタの今回の判断は、AIが人の心にどう寄り添うべきかを考える契機となり得る。
関連記事:
Googleが子ども向けAI「Gemini」を公開 保護者管理が必須

OpenAI、ChatGPTに休憩リマインダー導入 AI依存リスク軽減へ
