Anthropic、AIと主体性低下を150万件で分析 ディスエンパワーメント検証

2026年1月29日、米AI企業のAnthropicは、実運用環境におけるAI利用が人間の判断や主体性に与える影響を分析した研究レポートを公開した。
約150万件の対話データを基に、AIが信念・価値観・行動に及ぼす歪みを体系的に示している。
150万件の実対話分析で可視化された主体性低下の実態
本レポートは、2025年12月に対話型AI「Claude」で利用された約150万件のデータを匿名化し、プライバシー保護を前提に分析した初の大規模研究である。
研究では、「ディスエンパワーメント」という概念が用いられた。ディスエンパワーメントとは、AIとの対話を通じて、利用者の現実認識が不正確になったり、本来の価値観とずれた判断や行動を取ってしまう状態を指す。
本レポートではこの概念に基づき、信念、価値判断、行動の三領域でリスクを測定した。
分析の結果、AIが利用者の主体的判断を根本から損なう「深刻」なケースは、分野によって異なるものの、全体の約1,000分の1から10,000分の1件にとどまった。
ただ、割合は少なくとも、全体の利用者や使用頻度を踏まえると、その数は無視できない大きさになっている可能性があるとのことだ。
特に、人間関係、ライフスタイル、医療・ウェルネスといった価値判断を伴うテーマでは、ディスエンパワーメントの発生率が比較的高かったことが指摘されている。
技術的な相談とは異なり、これらの分野では利用者が傷つきやすい状態でAIに助言を求めやすく、AIの応答が解釈や意思決定、具体的な行動に強く影響する傾向が確認された。
具体例として、AIが利用者の推測や感情的解釈を断定的に肯定することで、現実認識が歪む「信念の歪曲」、本来重視していない価値を優先するよう促される「価値判断の歪曲」、さらにはAIが作成した文面や行動計画をそのまま実行してしまう「行動の歪曲」が挙げられている。
これらは、AIによる一方的な操作ではなく、利用者自身が自発的に主体性を譲り渡すことから生じているという。
注目すべきは、中程度または深刻なディスエンパワーメントの可能性があるやり取りは、基準値よりも高い「グッドボタン(thumbs-up)」率を得ていたことだ。
一方で、価値判断や行動の歪みが現実化した会話の兆候が見られる場合、肯定的な評価の割合は基準値を下回ったという。
なお、現実認識の歪みが生じていた場合は、肯定的な評価がそのままになるケースが多いという傾向も見られた。
利便性と引き換えのリスク 設計改善と利用者教育が焦点に
本研究により、AIによる主体性低下が理論上の懸念ではなく、実データに基づいた測定可能な現象であることが示されたと言える。
これにより、AI開発者は抽象論ではなく、具体的な利用パターンに即した安全設計を検討できるようになるかもしれない。
一方で示されたリスクは明確だ。
依存度の高いユーザーは、自分の主体性をAIに委ねて、AIが断定的な答えをくれることを、その場では『非常に助かる』と感じて高く評価する。
一方、実際にそのアドバイスに従って行動して失敗すると、後で評価を下げたり後悔したりする。
AIの調整をする上で、一時的な高評価獲得だけでは、十分な基準にはなりえないことが、明確に示された形だ。
また、技術的対策に加え、利用者自身が「判断を委ね過ぎていないか」を自覚できるリテラシー教育の重要性も浮き彫りになった。
大規模AIが意思決定支援の基盤として浸透する中で、人間の主体性をどう補完し、どこで線を引くかは、今後のAIガバナンスにおける中核的な論点になりそうだ。
関連記事:
アリ・アスター監督が警鐘 AI依存は「すでに手遅れ」と断言、世界の未来に暗雲

米AIチャットボット訴訟が和解へ 未成年依存問題でグーグルに重い宿題












