MENU


    採用担当の方はこちら
    業務委託案件をお探しの方はこちら

    Claudeとの会話がAI学習の対象に 9月28日から規約改定、選択必須へ

    2025年8月28日、米AI企業Anthropicはチャットボット「Claude」の学習にユーザーとの会話を利用する方針を発表した。
    これに伴い、利用規約とプライバシーポリシーを9月28日に改定し、ユーザーはオン/オフの選択を必ず行う必要がある。

    目次

    Claude全プラン対象、利用継続に選択が必須化

    Anthropicは、Claudeの無料版、Pro、Max、さらに「Claude Code」を含む各プランで、ユーザーとの会話をAI学習に利用する仕組みを導入する。
    対象外となるのは法人向け「Claude for Work」や政府機関向け「Claude Gov」、教育機関向け「Claude for Education」である。
    また、「Amazon Bedrock」や「Google Cloud」の「Vertex AI」などのサードパーティーAPIも影響を受けない。

    新規ユーザーはサインアップ時に「Help improve Claude」のオン/オフを設定する必要があり、既存ユーザーも規約更新後に同様の選択を迫られる。
    いずれかを選ばなければサービスを継続利用できない仕組みとなる。選択内容はプライバシー設定からいつでも変更可能だ。

    有効化を選んだ場合、学習に使用されるのは新規チャットと再開されたセッションに限られる。
    過去のチャットは対象外であり、現時点では遡って利用されることはない。
    また、2025年9月28日までは通知を閉じるか「今はしない」で選択を延期できるが、期限後は必須化される。

    透明性強化とリスク拡大 ユーザー選択が重みを増す

    今回の変更は、AI開発における透明性強化の一環と捉えられる。
    ユーザーが明示的に同意しなければ学習にデータが使われない仕組みは、信頼性を高める要素となる。
    一方で、オンを選択した場合はデータ保持期間が従来の30日から5年に延長されるため、情報管理に関する懸念は拡大する。
    Anthropicはこれにより不正利用の検知や有害パターンの把握が可能になるとしているが、長期保管がもたらすリスクは無視できない。

    ユーザーがオプトイン後にオプトアウトすれば、以降の会話は学習に使われなくなる。
    しかし、すでに学習に組み込まれたデータが完全に削除されるわけではないため、プライバシー保護の観点からは議論の余地がある。
    AIモデルの改善と個人情報保護のバランスをどう取るかは、今後も重要な課題になるだろう。

    今回の対応は、AIサービス全般においてユーザーが自らデータ利用の範囲をコントロールする流れを加速させると考えられる。
    ビジネス利用者にとっては利便性とリスクの双方を見極める判断が不可欠となり、AI業界における標準的な運用モデルの前例となる可能性がある。

    🚀 AI・Web3業界への転職を考えているあなたへ

    「最先端技術に関わる仕事がしたい」「成長市場でキャリアを築きたい」そんな想いを抱いていませんか?

    Plus Web3は、AI・Web3領域などテクノロジーに投資する企業の採用に特化したキャリア支援サービスです。

    運営する株式会社プロタゴニストは、上場企業グループの安定した経営基盤のもと
    10年以上のコンサルタント歴を持つ転職エージェントが
    急成長する先端技術分野への転職を専門的にサポートしています。

    こんな方におすすめです

    ▼成長産業であるAI・Web3業界で新しいキャリアを始めたい
    ▼「未経験だけど挑戦してみたい」という熱意がある
    ▼今のスキルを最先端技術分野でどう活かせるか相談したい
    ▼表に出ない優良企業の情報を知りたい

    業界に精通したキャリアアドバイザーが、
    あなたの経験・スキル・志向性を丁寧にヒアリングし、
    最適な企業とポジションをマッチングします。

    Web3企業

    AI企業

    この記事が気に入ったら
    フォローしてね!

    • URLをコピーしました!
    目次