Anthropic、生成AIと感情的対話の実態を初調査 ユーザー感情の変化や安全対策を分析

2025年6月27日、米Anthropicは生成AI「Claude」による感情的な会話の実態を調査した結果を発表した。
会話全体の約2.9%が情動的なやり取りであり、利用者の感情の変化傾向や安全対応の実態も明らかとなった。
Claudeとの感情的対話、約3%に留まるが多様なニーズに対応
Anthropicは、同社の生成AI「Claude」の利用実態を把握するため、約450万件の会話ログを分析。うち13万1484件が「情動的な会話」とされ、全体の2.9%に当たることが明らかになった。
対象となったのはFreeおよびProアカウントからのデータで、ユーザーのプライバシーを保護したうえで分析が行われた。
情動的な会話とは、恋愛や人間関係の相談、心理的な悩みの共有、自己肯定感の向上を求める会話など、感情や心理を動機とする対話を指す。
Anthropicの定義によれば、「対人アドバイス、コーチング、心理療法、ロールプレイを含む会話」が該当する。
分析の結果、ユーザーの感情は会話の進行とともに肯定的な方向に変化する傾向があり、一部では長時間の対話を通じてClaudeに親しみや信頼を寄せるケースもあった。
なお、危険な要求や自傷行為の兆候が見られる場合には、Claudeは即座に対応を拒否し、専門機関への相談を促す設計となっている。
また、Anthropicは既に危機支援を行う非営利団体ThroughLineと提携し、支援が必要なユーザーに対する案内の整備を進めている。
AIとの情動的関係性に期待と警戒、今後の設計に影響も
今回の調査は、生成AIが単なる情報提供にとどまらず、利用者の感情面にも一定の影響を与える存在となっていることを示している。
対話を通じてポジティブな感情が生まれる傾向は、孤独感の軽減や自己肯定感の向上といった効果が期待できる一方で、AIに対する過度な依存や擬似的な人間関係の形成といった懸念もある。
Anthropicは、Claudeをメンタルヘルスの専門家の代替と位置付けておらず、今後も必要な支援は人間の専門家に任せる方針を明確にしている。
また、AIが人間の感情を過剰に強化・増幅しないように、応答設計や安全対策を進化させていく姿勢を強調している。
今後の焦点は、生成AIが人間の情緒的ニーズにどう応えるかだけでなく、それが倫理的に持続可能か、社会的に受容可能かという点に移るだろう。
感情とAIの関係性が深まるなかで、設計者と利用者の双方に、新たな責任と判断が求められることになると思われる。