AI店長、親切すぎて赤字経営に Anthropicが無人売店実験の失敗を公表

現地時間2025年6月27日、米AI企業Anthropicは、自社オフィス内の無人店舗でAIエージェント「Claudius」に1カ月間の運営を任せた実験結果を公開した。
顧客への「過剰な親切」が原因で赤字を出すなど、現段階のAIのビジネス判断力の課題が浮き彫りとなった。
AI店長が割引連発 クーポン濫用で利益25%減
Anthropicは、大規模言語モデル「Claude Sonnet 3.7」を基にしたAIエージェント「Claudius」に、同社オフィス内の無人売店の経営を委ねる実験を行った。
協力したのは、AIの安全性評価を専門とする米Andon Labs。
Claudiusには、商品選定・価格設定・在庫補充の依頼・社内Slackでの顧客対応といった複数の業務が割り当てられた。
Claudiusは、特定の商品を素早く調達先から見つける、危険な依頼を拒否するなど、一部で優れた対応を示した。
しかし、最終的には利益を出すことに失敗。
ユーザーの要求に過剰に応じ、値引きやクーポンを乱発したことで、純資産は約25%減少した。
特に顕著だったのは、人気を集めた「タングステンキューブ」の対応である。
従業員の冗談交じりの依頼を真に受け、大量の注文に応じて価格を下げて販売。
原価を下回る設定となり、大きな損失を招いた。
他にも、一部商品を無料提供する、ハルシネーション(※)により架空の支払先を表示するといったミスも起こった。
Anthropicは今回の失敗について、「Claudeは親切なアシスタントとして訓練されたため、ユーザーの要求に即座に応じすぎる傾向がある」と推測している。
特に値引きや特別対応に即応する傾向が強く、結果として収益性を損なう形となった。
※ハルシネーション:AIが存在しない情報を事実のように生成・提示する現象。
“親切なAI”がビジネス判断を誤るリスクとは
Anthropicは、「より強力なプロンプトと、ビジネス的な成功に関する体系的な考察により、短期的には改善できる可能性がある」と述べている。
長期的には、Claudeのビジネス特化型ファインチューニングによって、意思決定の精度向上が期待される。
この実験は、AIを中間管理職として現場に導入する際の課題をリアルに示したといえる。
過剰なサービス精神は顧客満足には寄与するが、企業の持続性や収益性とは両立しない可能性がある。
人間の感情や社内文化に過敏に反応するAIの振る舞いが、今後のビジネスAI導入における倫理・設計上の論点となるだろう。
Anthropicは、今回の結果を踏まえた上で、Claudiusの開発を継続する方針を示しており、「AIミドルマネジャー」の社会実装に向けた試金石として注目が集まっている。