Google、軽量AIモデル「Gemma 3n」を発表 スマホで高性能マルチモーダル処理が可能に

2025年5月20日、米Googleがモバイル向けAI「Gemma 3n」を発表した。スマートフォン単体で画像・音声・動画を処理可能なマルチモーダル性能を備え、Claude 3.7 Sonnetに匹敵する性能を実現した。
Google、スマホ向けに次世代AI「Gemma 3n」発表
「Gemma 3n」は、スマートフォンやタブレットなどで直接稼働し、テキスト、画像、音声、動画の処理を単体で可能にする高性能マルチモーダルモデルである。
「Gemma 3」シリーズの一環として開発された本モデルは、モバイル端末上での動作効率を最大化すべく設計されており、Google DeepMindによる「Per-Layer Embeddings(※)」技術がその中核をなす。これにより、実パラメータ数は5Bと8Bながら、実行時に展開されるのは2Bまたは4Bとされ、必要なメモリサイズは2〜3GBに抑えられる。
Gemma 3nは従来のGemma 3 4Bと比較し、応答速度が約1.5倍向上。さらに、「mix’n’match」と呼ばれる機能により、4Bモデルから特定用途に最適化された軽量サブモデルを動的に生成し、品質と速度のバランス調整も可能となった。
性能面でも注目に値する。Gemma 3nは、Claude 3.7 Sonnetに肉薄するベンチマークスコアを記録し、「GPT-4.1-nano」「Llama-4-Maverick」「Phi 4」などを上回った。
音声認識や翻訳などのオーディオ処理も高精度で、日本語を含む多言語への対応強化も明らかにされている。
開発者向けには、「Google AI Studio」(ブラウザ上)と「Google AI Edge」(ローカル開発環境)で本日より早期プレビューとして提供開始されている。
軽量高性能モデルがAIの民主化を加速させる可能性
Gemma 3nの登場は、AI活用のハードルを一段と下げるとともに、AIの民主化を加速させる可能性がある。従来はクラウド依存だった高性能AIが、端末上で完結することで、プライバシー面やレイテンシーの課題が大幅に改善されるからだ。
とくに、生成AIを業務や生活に活用するユーザーにとって、クラウド通信を介さない処理の利点は大きい。電波状況に依存せずにAI機能を活用できるほか、センシティブな情報の漏洩リスクも低減できる。企業のセキュリティ部門にとっても、ローカル実行は大きな魅力と映るだろう。
一方で、Gemma 3nのような高性能AIをスマートフォン単体で動かすには、ハードウェアとの緻密な連携が不可欠である。Googleは米Qualcomm、台湾MediaTek、韓国Samsung System LSIといったモバイルチップメーカーと密接に協力し、Gemma 3nを最適化している。
同じアーキテクチャは、年内登場予定の次世代「Gemini Nano」にも採用される見通しであり、GoogleのローカルAI戦略の中核を成す存在と位置づけられている。今後のエコシステム拡大が注目される。
※Per-Layer Embeddings:各層ごとに異なるパラメータ配置を行うことで、AIモデルの圧縮率と推論性能を両立させるDeepMindの新技術。フットプリントを削減しつつ、性能を維持可能にする。