Red Hat、RHEL 10正式リリース AI推論基盤を拡張し企業活用を加速

2025年5月19日から22日の4日間にかけて、米Red Hatは年次カンファレンス「Red Hat Summit and AnsibleFest 2025」を開催。最新OS「RHEL 10」の一般提供を発表した。あわせてAI推論分野での新機能群を公表し、エンタープライズ向けAI活用の基盤強化を進めていく方針を示した。
RHEL 10とAI推論新機能、マルチクラウド戦略を加速
今回、Red Hatが開催した年次イベント「Red Hat Summit and AnsibleFest 2025」において、複数の主要アップデートを発表した。
中心となるのは、エンタープライズOSの最新版「Red Hat Enterprise Linux 10(RHEL 10)」である。既存のRHELユーザーにはすでに提供を開始していたが、一般提供の開始を正式に発表した。
RHEL 10はLinux 6.12を基盤とし、「イメージモード」によるコンテナネイティブな運用、NIST(※)準拠の耐量子暗号、自然言語操作が可能な「Lightspeed」機能などを搭載するという。
さらに、生成AIの実装・推論に対応したインフラ整備にも注力。「Red Hat AI Inference Server」は、大規模言語モデル向けのオープンソース推論ライブラリ「vLLM」をベースに、高速・低コストでのモデル実行を実現し、OpenShift AIやRHEL AIと統合される。
サードパーティのモデル最適化にも対応し、非Red Hat環境へのデプロイも可能としている。
また、AI推論の大規模運用を見据えた新プロジェクト「llm-d」も始動。Red Hatを含む7社がローンチメンバーとなり、分散環境における推論基盤の標準化を目指すとした。
推論インフラを武器に、AI実装の標準化で主導権狙うか
今回の発表群は、Red HatがAI推論の“実行段階”に注力し始めたことを示唆している。
モデル構築以上に、ビジネス現場での運用コストや応答速度が課題とされる推論領域に、オープンソース技術を活用して解を提供しようという戦略だろう。
とりわけ注目されるのは、「llm-d」プロジェクトにGoogle Cloud、IBM Research、NVIDIAなどの有力プレイヤーが参加している点である。Red Hatが中心となり、推論インフラの業界標準策定に影響力を持つ可能性がある。
一方で、AIエージェントの開発支援として、Meta製モデル群に最適化された「Llama Stack」と文脈プロトコル「MCP」の統合も発表された。これはOpenShift AI上でのエージェント生成・運用の簡易化と再利用性向上につながり、企業のAI導入ハードルを下げるとみられる。
カンファレンスでは「Unlock what’s next- Any model. Any accelerator. Any cloud.」というテーマを掲げ、AIモデルの活用を次のステージへと進める方針を打ち出していることから、今後はハイブリッドおよびマルチクラウド環境での運用最適化に注力するとみられる。
※NIST:米国国立標準技術研究所。量子コンピュータ時代を見据えた暗号標準策定を行う機関。