マイクロソフト、PCでAIモデルが完結する「Foundry Local」を発表 開発者の新たな標準に

2025年5月19日、米マイクロソフトはAIモデルをデバイス上で直接実行可能にする新プラットフォーム「Foundry Local」を発表した。WindowsとmacOSに対応し、開発者はクラウドに依存せず、高性能なローカルAI実装が可能となる。
クラウド不要でAI実行 マイクロソフトがローカル化を加速
Foundry Localの中心には、オープンなAIランタイムである「ONNX Runtime(※)」が据えられている。CPU、GPU、さらにはNPUにも対応し、ハードウェアに最適化されたパフォーマンスを発揮できる構造だ。
Windowsでは、AMD、Intel、NVIDIA、Qualcommといった主要チップベンダーとの協業を通じ、ハードウェアごとの最適化を実現する。MacにおいてもApple siliconのGPUアクセラレーションをサポートし、高速な処理を可能にしている。
対応モデルには、DeepSeek R1、Qwen 2.5 Instruct、Phi-4 Reasoning、Mistralなどの軽量で高性能なAIモデルが含まれ、エッジアプリケーションへの組み込みが容易である。
これらのモデルはFoundry Local Management Serviceが自動でダウンロード・管理を行うため、アプリ起動時の手間も最小限に抑えられる。
加えて、CLIツールやSDKが提供されており、開発者はターミナル上でコマンド操作を通じてモデルの導入や推論を簡単に制御できる。OpenAI互換のチャットAPIも組み込まれており、既存アプリへの連携もスムーズだ。
ローカルAIが変える開発現場 クラウド依存からの脱却と新たなリスク
最大のメリットは、クラウド接続が不要になることで、ネットワーク遅延やAPI使用料といった運用上のコストを削減できる点にある。特に、セキュリティやプライバシー保護が重視される医療・金融分野では、デバイス上での処理完結が重要な要件となりつつある。
また、ローカル推論の普及は、ネット接続が不安定な地域におけるアプリ展開を加速する可能性もある。開発者はFoundry CLIとSDKを活用することで、モデルの選定・導入から推論管理までを一元的に扱えるようになり、クロスプラットフォーム開発の効率も大幅に向上する。
一方で、すべてのAIモデルがローカルで同様に高性能に動作するとは限らず、デバイスのハードウェア性能や対応モデルの制約といった課題も残る。
また、クラウドベースの大規模言語モデルとの連携が難しいケースも想定されるため、ローカルAIは用途ごとの最適な使い分けが求められるフェーズに入ったと言える。
今後、Foundry LocalはオンデバイスAIのスタンダードとしての地位を確立するか、クラウドとのハイブリッドが主流になるか、業界の関心が集まるだろう。
※ONNX Runtime:Open Neural Network Exchange形式のAIモデルをさまざまなハードウェア上で高速かつ効率的に実行できるマイクロソフト製ランタイム環境。