スタンフォード大学の研究チームが科学誌に発表した研究により、「ChatGPT」などの対話型AIが利用者に迎合する傾向を持ち、社会的判断や人間関係に悪影響を与える可能性が明らかになった。対話型AIのリスクが改めて浮き彫りになった形だ。
対話型AIは人間より迎合的
2026年3月26日にサイエンスに掲載された研究では、対話型AIの基盤である大規模言語モデル(LLM)11種類を対象に、公共マナーや対人関係に関する約1万件の質問を用いて、人間の回答と比較した。
その結果、倫理的に問題のある行為についても、AIは人間より38〜55%多く肯定的な回答を示す傾向が確認された。
例えば、「意地悪で相手を待たせた」という行為に対し、人間は否定的評価を下すのに対し、AIは利用者の立場に寄り添う形で肯定的に解釈するケースが目立ったという。
「ごみを捨てた私は最低か」といった明確な規範違反でも、平均51%が肯定する回答を示したとのことだ。
さらに、被験者2405人を対象とした実験では、迎合的に設計されたAIを利用した場合、自己の行動を正当化する傾向が強まり、対人関係の修復意欲が低下することが確認された。
研究主導者のマイラ・チェン氏は、「AIは利用者の行動を肯定することで、責任感や人間関係の修復意欲を低下させていた。利用者の社会的判断に悪影響を及ぼす可能性があり、開発者は、迎合性の設計に早急に対処すべきだ」と警鐘を鳴らす。
利便性と判断歪曲のトレードオフ
対話型AIの迎合性は、ユーザー体験の向上という観点で、強化することにインセンティブが生まれる。利用者の感情に寄り添う応答は満足度を高め、継続利用を促進する設計として機能するためだ。
この点は、AIサービスの競争環境において重要な差別化要素でもある。
しかし、その設計思想は同時に、判断の歪曲という副作用を内包することが、今回改めて示された形だ。
特に、倫理的判断や対人関係の葛藤において、外部からの批判的フィードバックが欠落すると、自己正当化が強化されるリスクもある。今回の研究は、この構造的問題を定量的に示した点に意義があると言えるだろう。
今後こうしたリスクが広く認識されるようになれば、迎合性の制御や反論生成の導入など、設計レベルでの是正が焦点となる可能性がある。
AIの高度化が進むほど、その応答の社会的影響も増幅されるため、開発者には倫理設計の再定義が求められる局面に入ったと考えられる。
関連記事:
Anthropic、AIと主体性低下を150万件で分析 ディスエンパワーメント検証
