アップル、スマートグラスとAIサーバー向け半導体の開発を加速

2025年5月9日(日本時間)、米ブルームバーグが関係者からの話として報じた内容によれば、米アップルはスマートグラスおよびAIサーバー向けの新型半導体の開発を進めており、次世代デバイス戦略の中核に据える構えだ。
2026年から2027年にかけて量産体制に入る計画で、競合のメタに対抗しつつ、AIとの連携による差別化を図ろうとしている。
スマートグラスと新型プロセッサーの設計が示すアップルの次なる一手
アップルが開発中のスマートグラスには、Apple Watchで実績のある省電力チップを基盤としたプロセッサーが採用される予定である。
このプロセッサーは、複数のカメラを統合制御する機能を持ち、省電力性能を最大化するために不要な部品を省いた設計が特徴だ。グラス自体はAR(拡張現実)対応を視野に入れていたが、ARの実用化には依然として時間がかかることから、アップルは非AR型スマートグラスにも注力を始めている。
この開発は2026年末から2027年にかけて量産段階へと移行する計画で、メタ・プラットフォームズが2027年に発売予定とするARメガネとの市場競争が激化する見込みだ。
加えて、AIサーバー向けの専用半導体も並行して進められており、AI処理に特化したアーキテクチャが模索されている点も見逃せない。
AIとウェアラブルの融合が生む新たなUXと市場の主導権争い
アップルの新戦略において、鍵を握るのはAIの活用とウェアラブルデバイスの融合である。
スマートグラスやAIサーバーに加えて、AirPodsやApple Watchといった既存製品にもカメラを搭載する構想が進行中で、これにより環境認識型AIデバイスとしての役割が強化される見通しだ。
ユーザーの周囲をカメラでスキャンし、AIが適切なサポートを提供する設計は、音声アシスタントの次を見据えた「視覚+AI」のユーザー体験を想定しているのだろう。
また、既にiPhoneに搭載されている「Visual Intelligence」(※)機能や、Mac向けに開発中のM5〜M7といった次世代プロセッサー群も、こうしたデバイス戦略と連携する形で進行している。
2027年までに一連の製品群と半導体が出揃うと見られており、それまでにAI性能の向上とデバイス連携の最適化が進むかが注目される。
アップルが目指すのは、単なるガジェットの進化ではなく、生活に自然に溶け込むAI体験の再定義だと思われる。
メタなど他社との競争が激化する一方で、アップルならではの統合設計とブランド力が、優位性を築く要素になる可能性は十分にあるだろう。
※Visual Intelligence:画像認識や映像解析を通じて、ユーザーの行動や環境をAIが把握し、文脈に応じた情報提供やアシストを行う機能群の総称。