総務省、ネット保護規制を再設計へ 生成AI時代の青少年保護に向け対応強化

2025年11月11日、総務省は、青少年のネット上の安全確保に向けた有識者会議の初会合を開催した。有害情報の多様化や生成AIによる新たな加害リスクが浮上しており、来年5月の報告書取りまとめに向けて規制の全面的見直しを進める。
総務省、有害情報基準を拡大しAI時代の青少年保護に本腰
総務省は、青少年を取り巻くネット環境が急速に変化しているとして、新たな規制の枠組みを検討している。
有識者会議では、犯罪、自殺、性的表現など、青少年にとっての有害情報が多様化している現状を受け、例示範囲拡大などの対応を検討する。
事業者へ求める自主規制などの協議、青少年インターネット環境整備法の課題の洗い出しを行い、法改正につなげる狙いだ。
有識者からは「青少年が有害情報を閲覧するだけでなく、自ら発信してしまう新しいリスクへの対応が必要になっている」との声も上がった。
意図しない著作権侵害や、他人への誹謗中傷など、加害者になるリスクも高まっている。
また、SNSを通じた募集で特殊詐欺などに関わる事案も発生しているという。
同法は携帯電話事業者に年齢確認やフィルタリング提供を義務付けているが、2024年度の学校でのいじめ認知件数では、「パソコンや携帯電話などで誹謗・中傷や嫌なことをされる」が2万7千件に達し、増加傾向にある。
オーストラリアでは12月から16歳未満のSNS利用を禁止し、事業者に接続阻止を義務付ける法律が施行される。こうした海外の規制動向も参考に、法的整備も議論する。
AI時代の規制は両刃の剣 安全確保と学習機会の両立が鍵
今後の議論では、安全対策とデジタル学習機会の確保をいかに両立させるかが最大の焦点になるだろう。
生成AIの普及は創造性や学習効率の向上といった恩恵をもたらす一方、誤用による加害行為やフェイク情報拡散のリスクを増幅させる。
規制を強化することで、いじめや特殊詐欺への巻き込まれを防ぎやすくなる利点は大きいが、過度な制限は若年層の活用能力を損ね、将来のデジタル人材育成に影響を与える可能性がある。
一方で、AIが生活やビジネスに浸透するなか、青少年が早期に適切なリテラシーを身に付けることは不可欠だ。事業者によるフィルタリング強化や年齢認証の高度化に加え、AI利用時の注意点を学校教育に組み込む取り組みも求められるだろう。
国際的には、オーストラリアのように年齢ベースの厳格な制限を導入する国が増える可能性があり、グローバルプラットフォームとの整合性をどう確保するかも課題となりうる。
規制が国境を越えたサービスに影響する以上、日本独自の方針だけでは限界があるためだ。今後の報告書では、多様なステークホルダーを巻き込みつつ、現実的かつ柔軟な制度設計が問われることになるとみられる。
関連記事:
総務省、詐欺対策でAI活用を要請 通信大手に検知精度の高度化と制度支援を促す












