2026年5月6日、アップルが今秋公開予定のiOS 27やmacOS 27で、Apple Intelligenceに複数の外部AIモデルを統合する計画だとブルームバーグが報じた。ChatGPTに加え、ClaudeやGeminiなども利用可能になる見通しで、スマートフォンのAI体験は「標準搭載型」から「選択型」へ変化する可能性がある。
Apple Intelligenceが外部AIを自由選択へ
アップルはすでにOpenAIと提携し、iOS 26ではSiriや作文ツール、Image PlaygroundでChatGPTを利用可能にしている。さらにGoogleとも協力関係を進めており、iOS 27ではGeminiベースのAIモデル統合も予定されている。
今回注目を集めているのは、アップルが特定企業のAIだけに依存しない方向へ舵を切り始めた点だ。ガーマン氏によれば、次期OSでは「Extensions(※)」に対応したAIプロバイダーであれば、ユーザー自身が好みのAIモデルを選択できるようになるという。
テスト版ソフトウェアには、「Siri、作文ツール、Image PlaygroundなどのApple Intelligence機能を通じて、インストール済みアプリから生成AI機能をオンデマンド利用できる」との説明も表示されていた模様だ。これが実現すれば、iPhone上でClaudeやGeminiなどをOSレベルで横断利用できる環境が整う可能性がある。
※Extensions:アプリや外部サービスの機能をOS全体へ拡張連携する仕組み。今回のケースでは、サードパーティ製AIをSiriや文章作成機能などへ直接統合できる基盤を指す。
AI主導権争い激化 アップルは“仲介者”へ
今回の構想は、単なる機能追加ではなく、スマートフォン市場におけるAI競争の構造そのものを変える可能性を持つ。従来は端末メーカーが単一AIを標準搭載する流れが主流だったが、今後は「どのAIを選べるか」が競争力になる流れの始まりと言えるだろう。
特にAnthropicのClaudeやGoogle Geminiは、それぞれ文章生成や検索連携に強みを持つ。用途ごとに最適なAIを使い分けられれば、生産性向上につながるとの期待も大きい。
一方で、複数AIの常時接続は、個人データ管理や応答品質の一貫性といった課題も生みかねない点が懸念点だ。
さらに、アップルがSiriの音声自体を外部AIごとに切り替えられるよう検討している点も興味深い。ユーザーは「どのAIが応答しているか」を音声で識別可能になるとみられ、AIアシスタントは“単一人格”から“AIプラットフォーム”へ進化していくことになりそうだ。
関連記事: