OpenAI、超低遅延の高速モデル「GPT-5.3-Codex-Spark」公開 Codexのリアルタイム編集を高速化

2026年2月12日、米OpenAIはリアルタイムコーディング向けの高速モデル「GPT-5.3-Codex-Spark」を研究プレビューとして発表した。
ChatGPT Pro向けにCodexで提供する方針だ。
超高速推論可能な新モデル
GPT-5.3-Codex-Sparkは、GPT-5.3-Codexの小型版として、対話しながらの編集・リファクタ・UI改善を「ほぼ瞬時に応答していると感じられる」ような体験に寄せたモデルになる。
超低レイテンシのハードウェア上での提供を前提に最適化し、実運用のコーディング性能を維持しつつ、生成速度は毎秒1000トークン以上とした。
OpenAIは、モデル単体の高速化だけではなく、通信・配信最適化も行っている。
レスポンスのストリーミング最適化や推論スタックの改修、セッション初期化の見直しに加え、永続WebSocket接続とResponses APIの最適化も合わせて行うことで、往復オーバーヘッド80%減、トークンごとのオーバーヘッド30%減、初回トークン表示までの時間50%減を実現したという。
ただ、性能評価では、Terminal-Bench 2.0でSparkが58.4%とされ、GPT-5.3-Codex(77.3%)に比べ精度面の差も示された。速さを優先する場面での使い分けが前提になりそうだ。
提供開始時点では128kのコンテキストに対応し、入力はテキストのみとなる。研究プレビュー期間中は専用のレート制限が適用され、通常枠とは別扱いになる一方、需要次第では順番待ちやアクセス制限も起こり得る。
現在は試用向けに、AI向けチップのCerebras 基盤上で、ChatGPT Pro ユーザー向けに研究プレビューとして提供されている。
開発体験の刷新と精度・制限の綱引き
Codex-Sparkのような高速化のメリットとして、短いサイクルで試行錯誤できるほど、実装の発想から検証までの距離が縮むことが挙げられる。
長時間タスクを自律実行するフロンティアモデルと、即応性を重視するSparkを組み合わせることで、同じCodex内で「長距離走」と「短距離走」を切り替える設計思想も見えてくる。
一方、速度優先は精度・安定供給・コストのトレードオフを伴う。専用ハードウェア前提のためアクセス制限が運用上のボトルネックになり得るほか、ベンチマーク上は上位モデルに届かない局面も残る。
今後は提供範囲の拡大とともに、より長いコンテキストやマルチモーダル対応など、超高速モデル群の機能拡張が段階的に進むとみられる。
推論性能そのものに加え、「応答速度」が競争軸となることで、AI開発環境は処理能力の時代からインタラクション体験の時代へ移行する可能性がある。
関連記事:
OpenAI、セレブラスと巨額半導体契約 AIインフラ競争は新局面へ

考えて動くコーディングAI!GPT-5.3-Codex登場で何が変わる?

OpenAI、開発者向けAIを刷新 「GPT-5.3-Codex」を発表












