米OpenAIは、小型モデル「GPT-5.4 mini」と「GPT-5.4 nano」を公開した。
GPT-5.4の特性を引き継ぎつつ、高速性と効率性を重視した設計が特徴であり、API、Codex、ChatGPTで提供が始まっている。
GPT-5.4 miniとnanoを公開
2026年3月17日、OpenAIは、GPT-5.4 miniとGPT-5.4 nanoを公開した。
GPT-5.4 miniは、これまでで最も高性能な小型モデルとされ、GPT-5.4の強みの多くを受け継ぎながら、高い処理量に対応する高速かつ効率的なモデルとして設計された。
コーディング、推論、マルチモーダル理解、ツール利用の各分野でGPT-5 miniから性能を向上させ、動作速度は2倍以上になったという。
SWE-Bench ProやOSWorld-Verifiedを含む評価では、より大規模なGPT-5.4に匹敵する結果も示した。
想定用途としては、応答性が求められるコーディングアシスタント、補助作業を担うサブエージェント(※)、スクリーンショットを解釈するコンピュータ操作システム、画像をリアルタイムで推論するマルチモーダルアプリケーションなどが挙げられている。
APIではテキスト・画像入力、ツール利用、関数呼び出し、ウェブ検索、ファイル検索、コンピュータ操作、スキルに対応し、コンテキストウィンドウは400kである。
料金は入力100万トークンあたり0.75ドル、出力100万トークンあたり4.50ドルとなる。
GPT-5.4 nanoは、速度とコストを最重視する用途向けの最小・最速モデルであり、分類、データ抽出、ランキング、比較的単純な補助タスク向けと位置づけられた。
APIのみで利用でき、料金は入力100万トークンあたり0.20ドル、出力100万トークンあたり1.25ドルである。
ChatGPTでは、無料版およびGoユーザーが「Thinking」機能からGPT-5.4 miniを利用でき、その他のユーザーではGPT-5.4 Thinkingのレート制限到達時にフォールバックとして使われる。
※サブエージェント:大規模モデルの指示を受けて、検索や抽出、レビューなど個別の補助タスクを担う小規模なAI機能のこと。
高速化が広げる実務での使い分け
今回の発表の意義は、高性能なAIをより細かく役割分担して使える点だと言える。
大規模モデルにすべてを任せるのではなく、計画や最終判断は上位モデル、検索やレビューなどの反復処理は小型モデルに振り分ける構成が取りやすくなる。
とくにコーディングやマルチモーダル処理のように、応答速度が体験や生産性に影響を与える領域では、miniの価値は相対的に高いと捉えられる。
一方で、小型化と低コスト化が進むほど、利用者には用途の見極めが求められるだろう。
単純処理ではnanoが有効でも、複雑な判断や全体調整まで同じモデルに任せると、期待する精度に届かない場面もありうるためだ。
その意味では、今回の公開は単なる新モデル追加ではなく、AI活用が「最も大きいモデルを使う」段階から、「目的ごとに最適なモデルを組み合わせる」段階へ移りつつあることを示す動きと言える。
関連記事:
OpenAI、「GPT-5.4」公開 事実誤認33%減とAIエージェント性能を強化

ChatGPT最新モデル「GPT-5.4」は実務性能が向上 進化の要点を実例で解説
