X日本公式、違法コンテンツに厳格対応 Grok悪用も永久凍結、当局連携へ

2026年1月6日、Xの日本公式アカウントは、違法コンテンツに対し投稿削除やアカウント永久凍結、当局との連携を行う方針を明言した。
生成AI「Grok」を用いた違法コンテンツの作成・助長行為も、通常の違法投稿と同様に扱うとしている。
X日本公式、違法コンテンツに永久凍結と当局連携を明言
Xの日本公式アカウントは1月6日、違法コンテンツへの対応方針を改めて示した。
投稿によると、児童性的虐待素材(CSAM ※)を含む違法コンテンツが確認された場合、投稿の削除やアカウントの永久凍結にとどまらず、行政や法執行機関と協力する対応も行うとしている。
投稿では、生成AI「Grok」に関する対応にも言及した。
Grokで違法コンテンツを作成、または作成を促した場合も、違法コンテンツを投稿したケースと同様に扱うという。
今回の投稿は、1月4日に英語で発信された内容を日本向けに紹介したものだ。
背景には、Grokを用いて、服を着た女性や子どもをビキニ姿に変換するなど、性的な改変画像が拡散している状況があるとみられる。
生成AIの利用が広がる中、違法コンテンツへの対応とあわせて、Grokの利用に関する措置にも踏み込んだ。
※児童性的虐待素材(CSAM):児童に対する性的虐待や搾取を記録した画像・動画などの総称。
生成AI時代の責任原則と運用の行方
本件のメリットは、生成AIの利用有無に関わらず、違法コンテンツの責任主体は投稿者にあるという原則を明確化した点にあるだろう。
AIを介した行為であっても判断基準は変わらないと示したことで、責任の所在が曖昧になりがちな状況に一定の整理が加えられたと言える。
当局との連携を明言した点も、抑止力として機能する可能性がある。
一方で、生成AIによる表現と違法性の線引きには本質的なグレーゾーンが残りそうだ。
判断基準や運用プロセスが外部から見えにくいままでは、利用者に過度な自己検閲を促す恐れがある。
「悪用を促す行為」まで対象とした点も、文脈解釈次第で正当な議論を萎縮させかねない。
今後は、どの段階を自動判定とし、どこから人手判断とするのか、その基準が焦点になりそうだ。
運用事例や判断根拠が継続的に共有されれば、透明性は高まると考えられる。
また本対応は、生成AIを組み込む他のSNSにも影響を及ぼし、免責論を許さない流れが広がる可能性がある。
関連記事:
生成AI「Grok」に批判噴出 画像編集機能が児童保護と規制論争を招く

STU48、AI生成画像問題で肖像権とパブリシティ権を公式警告

国交省がAI加工写真のSNS投稿削除 公的機関の広報ガバナンス問われる












