時事通信は「情報流通プラットフォーム対処法」の施行1年を前に、SNS事業者9社への調査結果を報じた。5社が対応を示す一方で、4社が未回答となった。
SNS運営9社調査で露呈した対応の差
時事通信が2026年4月1日に結果を公表した今回の調査は、誹謗中傷被害の救済を目的とする「情報流通プラットフォーム対処法(※)」の施行から1年を迎える節目として実施されたものである。
対象となった9社に対し、法令対応や生成AI対策、運用上の課題などが問われた。
グーグル、LINEヤフー、メタ、TikTok、サイバーエージェントの5社は、いずれも「法を順守している」などと回答した。
LINEヤフーは削除要請のオンライン窓口を整備し、申請数の増加に対応しているほか、法令に詳しい「侵害情報調査専門員」の配置も、情プラ法で定められている基準以上に行っているという。
TikTokも複数の専門員を配置しており、「日本の体制を一層強化」していると説明した。
また、生成AIによる実写風コンテンツへの対策として、グーグルやTikTokは、投稿者にAIで作成したと明記するよう要請している。
メタやサイバーエージェントも、監視・削除に努めると回答した。
一方で、Xや掲示板「爆サイ」の湘南西武ホーム、動画サイト「ニコニコ」のドワンゴの3社は、複数回の問い合わせにも回答しなかった。
また、画像共有のピンタレストは回答できないという返信があったという。
※情報流通プラットフォーム対処法:インターネット上の誹謗中傷や権利侵害に対し、SNS事業者へ削除対応や相談窓口設置などを義務付ける日本の法律。2025年施行で、被害者救済と透明性向上を目的とする。
規制強化の利点とリスク、今後の焦点
今回の調査結果から、規制の進展による一定のメリットが窺える。
相談窓口の整備や専門人材の配置により、被害者が救済にアクセスしやすくなっている点は評価できる。また、AI生成コンテンツの明示ルール導入は、情報の信頼性向上に寄与する可能性がありそうだ。
一方で、違法性が明確でない投稿や「グレー」な情報への対応は依然として難しいと考えられる。過剰な削除対応などが行われれば、表現の自由を萎縮させるリスクもあるだろう。
特に生成AIの普及により、実写と区別が困難なコンテンツが増加しているため、真偽判定のコストと難易度は上昇していると考えられる。
さらに、未回答企業の実態が不透明であること自体が、規制の公平性に対する懸念を生む可能性もある。対応企業のみがコストを負担する構造が固定化すれば、競争環境の歪みを招くかもしれない。
今後は、透明性確保のための開示義務強化や第三者監査の導入が検討される可能性がある。同時に、AIによる検知技術と人間の判断を組み合わせた運用モデルの高度化も不可欠となるだろう。
規制と自由のバランスをいかに最適化するかが、次のフェーズにおける重要な論点となりそうだ。
関連記事:
プロ野球CS・日本シリーズで誹謗中傷466件 選手会、AI監視結果を公表

ANYCOLOR、にじさんじ誹謗中傷犯に和解条件として意識調査を実施 承諾の上公表へ

Xが権利侵害投稿の「削除申出窓口」を新設 7日以内に日本語対応で判断