米MetaはInstagramにおいて、10代ユーザーが自傷や自殺に関する検索を短時間に繰り返した場合、保護者へ自動通知する新機能を発表した。
まず米英などで導入し、年内に対象地域を拡大する。
自傷関連検索を検知し保護者へ通知
2026年2月26日にMetaが発表した機能は、Instagramの保護者監督機能(※)を利用している家庭を対象に、10代ユーザーの検索行動を分析し、一定時間内に自傷や自殺に関連する語句を繰り返し検索した場合に通知を送る仕組みだ。
通知はメールやSMS、WhatsApp、アプリ内通知で届き、検索内容の傾向とともに専門家監修の支援ガイドが提示される。
対象となるのは、自傷を助長する表現だけでなく、「自傷」「自殺」など一般的な関連語も含まれる。
Metaは、通知が頻繁になりすぎると効力を失うという認識を示し、必要な時にだけ通知を行うようにする方針を示している。
同機能は米国、英国、オーストラリア、カナダで来週に提供を開始し、年内に他地域へ拡大する予定だ。
さらにMetaは、年内にAIチャット機能においても同様の保護者通知を導入する計画を明らかにしている。
※保護者監督機能:保護者が未成年ユーザーの利用時間や設定状況などを管理・把握できるSNSの安全管理機能。Instagramでは検索行動などの一部活動情報も共有される。
安全強化とプライバシーのバランス課題
今回の取り組みは、SNSがメンタルヘルスの早期発見インフラとして機能し始めていることを示す動きだと考えられる。
自傷関連の検索行動は心理的リスクのシグナルとなる可能性があり、保護者が早期に気づくことで対話や専門支援につながる効果が期待できる。
一方で、過剰通知による誤検知や、思春期ユーザーのプライバシー侵害への懸念も残る。
Metaは検索頻度の閾値を設定し、不必要な通知を抑制する設計としたが、心理的にセンシティブな行動を監視する仕組みである以上、運用の透明性と慎重な調整が求められるだろう。
AI対話への監視拡張は、若年層が検索よりも生成AIに相談する傾向を踏まえた対応とみられる。
SNSとAIが一体化する中で、プラットフォームの役割は単なるコミュニケーション基盤から、リスク検知と支援のゲートウェイへと変化しつつある。
今後は、安全対策と自律性の確保をどう両立するかが、主要プラットフォームの競争軸になる可能性がある。
関連記事:
オープンAI、チャットGPTに保護者管理機能 子ども利用のリスク抑制へ

メタ、インスタの対話型AIに年齢制限導入へ 保護者が利用を制御可能に

