「AIだけのSNS」が示す希望 誤情報の拡散は人間より抑制的:米研究チームが検証

2025年4月10日に投稿された米UCLAとMITの研究者らが発表した最新論文によると、AIエージェントだけで構成された仮想SNS環境における情報拡散の挙動が明らかになった。
AIは人間と比べて誤情報を拡散しにくいという結果が示され、SNSにおけるAIの活用可能性が改めて注目されている。
「誤情報を広げないAI」が示す新しいSNSモデルの可能性
研究チームが実施したシミュレーション「MOSAIC」では、SNS上のユーザーに模したAIエージェントが、投稿やコメント、シェアといった行動を行うシミュレーション環境を構築。
エージェントには、204人の実際の人間参加者から取得したデータをもとにしたペルソナが付与され、現実に近い行動パターンが再現された。
この環境において、AIエージェントは誤情報と事実情報を見分ける能力を持ち、SNS上での情報の拡散速度に明確な違いが見られた。
人間主体のSNSでは誤情報が事実よりも拡散しやすい傾向があるが、AIのみのSNSではこのような偏りが発生しなかった
さらに、誤情報対策としてファクトチェックの3方式――第三者機関による検証、ユーザー同士の検証、そして両者を組み合わせたハイブリッド型――を試した結果、いずれも誤情報の広がりを効果的に抑制し、正確な情報へのエンゲージメントが向上したことが報告された。
AIによるSNSの運営において、こうした対策の実装は有効に機能することが確認されている。
人間の影響を排したSNSが示す「アルゴリズム主導」の課題と展望
研究では、ユーザーの人気度に影響を与える要因として、性別や年齢、政治的傾向などの属性情報が統計的に有意な要素とはならないことも示された。
注目されたのは、SNSのネットワーク構造やフィードにおける表示アルゴリズムの影響であり、投稿がどのように露出されるかがエンゲージメントに大きく関与していた。
この結果は、現実のSNSが抱える「バズの再現性の不透明さ」や「アルゴリズムによる情報偏在」の問題に対し、AIベースの透明性ある設計が一石を投じる可能性を示唆するものである。
一方で、AIエージェントの判断基準が一様であることや、ネットワーク自体の構造が現実世界と異なることから、完全な実用には課題も残る。
今後、SNSへのAIの導入が進めば、誤情報の抑制や投稿者の公平性といった観点で一定の成果が期待される。
ただし、運営者側がアルゴリズムに過度な影響力を持つことへの懸念も依然として残るため、AIと人間のハイブリッド環境での倫理設計や透明性の確保が重要な論点となるだろう。
論文「MOSAIC: Modeling Social AI for Content Dissemination and Regulation in Multi-Agent Simulations」:https://arxiv.org/abs/2504.07830