Claude Sonnet 4が100万トークン対応 コードも論文も一括解析可能に

2025年8月12日、米Anthropicは最新AIモデル「Claude Sonnet 4」のコンテキストウィンドウを100万トークンに拡張したと発表した。従来の5倍規模で、長大なコードや文書を分割せずに解析できる機能がパブリックベータ版として提供開始された。
従来の5倍 75,000行超のコードも一度に解析可能に
Anthropicは今回、Claude Sonnet 4のコンテキストウィンドウ(※1)を100万トークン(※2)に拡張した。これにより、開発者は数十本の研究論文や最大で75,000行以上のソースコード全体を一度に読み込ませ、いままでより複雑で高度なタスクを実行させることが可能になる。
従来のトークン規模では、長大なデータを扱う際には分割入力が必要だったが、この方法では、ファイル間の依存関係や文脈が途切れ、正確な解析や提案が困難な問題があった。
実際の用途としては、大規模なコードベースの解析、複数文書の統合分析、長期タスクを処理するAIエージェント構築の3分野が想定されている。
特にコード解析では、テストやドキュメントを含む全体像を把握した上で精度の高い改善提案が可能になるという。
Bolt.newのエリック・シモンズCEOは、「100万コンテキストウィンドウにより、開発者は現実のコーディングに必要な高い精度を維持しつつ、これまでより大幅に大規模なプロジェクトに取り組むことが可能になった」と評価しており、実務レベルの性能向上が見込まれている。
本機能はAnthropicのAPIおよびAmazon Bedrockでパブリックベータ版として提供が開始されており、近日中にGoogle CloudのVertex AIでも利用可能となる予定だ。
※1 コンテキストウィンドウ:AIが一度に参照できるトークンの上限
※2 トークン:AIが文章を処理する際の最小単位。英語では単語程度、日本語では文字や語の一部に相当する
今後の展望
今後、この規模のコンテキストウィンドウはソフトウェア開発だけでなく、企業のナレッジ管理や複雑なプロジェクトマネジメントにも導入が進むとみられる。特に、「異なる部門や専門分野の文書を一度に統合分析したい」というニーズに対して、100万トークンという規模は実現を後押しするだろう。
また、他社も長大コンテキスト対応を加速しているため、精度維持とコスト抑制を両立する技術競争が激化すると予想される。
一方で、すべてのユースケースで長大コンテキストが必要になるわけではないため、ユーザー側も「どこまで長さを活かすべきか」を見極める運用設計が必要となるだろう。
中長期的には、モデルの推論効率化や圧縮技術の発展により、コストと精度のバランスが改善され、長大コンテキストがより標準化される可能性が高いと考えられる。
Anthropic ニュースリリース:
https://www.anthropic.com/news/1m-context