米OpenAIは新たな大規模言語モデル「GPT-5.4」を発表した。
ChatGPTやAPI、開発ツールCodexで利用可能となり、ハルシネーションの削減やAIエージェント運用を意識した設計が特徴とされる。
GPT-5.4公開 信頼性向上とエージェント性能を強化
2026年3月8日、OpenAIは新モデル「GPT-5.4」を公開した。
ChatGPTでは「GPT-5.4 Thinking」として提供され、開発者向けAPIやコーディング支援ツールCodexでも利用可能となる。
さらに高性能版として「GPT-5.4 Pro」も同時に発表された。
GPT-5.4は、推論能力・コーディング能力・エージェント運用を統合した次世代モデルである。
従来モデルGPT-5.2と比較して事実誤認の発生率を33%低減し、回答全体にエラーが含まれる確率も18%減少したと報告されている。
OpenAIはこれを「これまでで最も事実に忠実なモデル」と位置付けている。
また、業務用途を強く意識した設計も特徴だ。
スプレッドシート作成やプレゼン資料生成、ドキュメント作成といった知識労働において性能が向上しており、実務能力を測るベンチマーク『GDPval』では、GPT-5.4は比較の83.0%で業界の専門職と同等以上の結果を示した。
さらに、同モデルは最大100万トークン(※1)の長文コンテキストに対応し、複数ツールを横断する複雑なワークフローの実行も可能となる。
これにより、AIが実際の業務環境でタスクを自律的に処理する「エージェント型AI」の実用化を後押しする存在になるとみられる。
※1 トークン:AIが文章を処理する際の最小単位。単語や文字列の断片を指し、コンテキスト量が多いほど長い文章や複雑な情報を扱える。
AIの信頼性向上 業務活用の拡大も課題残る
GPT-5.4の進化は、生成AIの実務利用を一段と現実的にする可能性がある。
特にハルシネーション(※2)の削減は企業導入の障壁の一つとされてきたため、事実誤認の低減はビジネス用途での信頼性向上につながると考えられる。
複雑な業務プロセスをAIエージェントが処理できるようになれば、ソフトウェア開発や分析業務の自動化が進む可能性もある。
一方で、AIの出力に対する人間の監督は依然として不可欠だろう。
誤情報のリスクが完全に消えたわけではなく、重要な意思決定ではファクトチェックが必要になるとみられる。
AIの性能が向上するほど、人間側のリテラシーや検証体制の重要性はむしろ高まりそうだ。
さらに、AIエージェントがPC操作やツール利用を自律的に行う仕組みは、生産性向上に寄与する一方で、セキュリティや権限管理の新たな課題を生む可能性もある。
企業システムへのアクセス制御や安全対策の設計は、今後の導入拡大を左右する論点になりそうだ。
生成AIはここ数年で急速に進化してきたが、GPT-5.4は、生成AIが業務支援から業務実行へと役割を広げる流れを後押しするモデルとみられる。
今後はAIエージェントが企業の業務フローにどこまで組み込まれるかが、生成AI競争の次の焦点になるだろう。
※2 ハルシネーション:生成AIが事実ではない内容を、もっともらしく生成してしまう現象。AIの信頼性に関わる重要な課題とされている。
関連記事:
企業のAI導入が加速へ OpenAIがマッキンゼーらと世界展開連合

OpenAIが企業のAIエージェントを”AI同僚”へ位置づけ Frontier始動

NTTドコモ、AIエージェント「SyncMe」のパイロット版モニター募集を開始
