Claudeとの会話がAI学習の対象に 9月28日から規約改定、選択必須へ

2025年8月28日、米AI企業Anthropicはチャットボット「Claude」の学習にユーザーとの会話を利用する方針を発表した。
これに伴い、利用規約とプライバシーポリシーを9月28日に改定し、ユーザーはオン/オフの選択を必ず行う必要がある。
Claude全プラン対象、利用継続に選択が必須化
Anthropicは、Claudeの無料版、Pro、Max、さらに「Claude Code」を含む各プランで、ユーザーとの会話をAI学習に利用する仕組みを導入する。
対象外となるのは法人向け「Claude for Work」や政府機関向け「Claude Gov」、教育機関向け「Claude for Education」である。
また、「Amazon Bedrock」や「Google Cloud」の「Vertex AI」などのサードパーティーAPIも影響を受けない。
新規ユーザーはサインアップ時に「Help improve Claude」のオン/オフを設定する必要があり、既存ユーザーも規約更新後に同様の選択を迫られる。
いずれかを選ばなければサービスを継続利用できない仕組みとなる。選択内容はプライバシー設定からいつでも変更可能だ。
有効化を選んだ場合、学習に使用されるのは新規チャットと再開されたセッションに限られる。
過去のチャットは対象外であり、現時点では遡って利用されることはない。
また、2025年9月28日までは通知を閉じるか「今はしない」で選択を延期できるが、期限後は必須化される。
透明性強化とリスク拡大 ユーザー選択が重みを増す
今回の変更は、AI開発における透明性強化の一環と捉えられる。
ユーザーが明示的に同意しなければ学習にデータが使われない仕組みは、信頼性を高める要素となる。
一方で、オンを選択した場合はデータ保持期間が従来の30日から5年に延長されるため、情報管理に関する懸念は拡大する。
Anthropicはこれにより不正利用の検知や有害パターンの把握が可能になるとしているが、長期保管がもたらすリスクは無視できない。
ユーザーがオプトイン後にオプトアウトすれば、以降の会話は学習に使われなくなる。
しかし、すでに学習に組み込まれたデータが完全に削除されるわけではないため、プライバシー保護の観点からは議論の余地がある。
AIモデルの改善と個人情報保護のバランスをどう取るかは、今後も重要な課題になるだろう。
今回の対応は、AIサービス全般においてユーザーが自らデータ利用の範囲をコントロールする流れを加速させると考えられる。
ビジネス利用者にとっては利便性とリスクの双方を見極める判断が不可欠となり、AI業界における標準的な運用モデルの前例となる可能性がある。