Google、「Gemma 3 270M」発表 スマホAI向け超軽量モデル公開

現地時間2025年8月14日、米Googleは2億7,000万パラメータ規模の小型言語モデル「Gemma 3 270M」を発表した。
スマートフォン上でのローカル動作を念頭に設計されており、低消費電力と高い語彙力を両立する点が特徴だ。
あわせて、同モデルを活用したブラウザデモアプリも公開された。
Google、超軽量モデルでスマホAIを実用化へ
Googleが公開した「Gemma 3 270M」は、特定タスク向けのチューニングを前提としたコンパクトなベースモデルである。
パラメータ数は2億7,000万に抑えられているが、そのうち1億7,000万が単語や記号に対応するための埋め込みパラメータに割かれており、25万6,000トークンという大規模語彙を保持する。
GPT-3.5(約10万トークン)やGPT-4o(約20万トークン)を上回る水準であり、専門用語への対応力も高いとされる。
「Gemma 3 270M」は、「Quantization-Aware Training」と呼ばれる手法で、軽量性と性能を両立している。
学習段階から数値表現を簡略化し、計算量やメモリ使用量を削減する技術である「量子化」を想定して設計することで、性能劣化を最小限に抑えたという。
省電力性も注目点だ。
Googleによる社内テストでは、Pixel 9 Pro上でint4量子化版を動作させた場合、25回の応答処理に必要なバッテリ消費はわずか0.75%に留まったという。
実装例として、Googleはブラウザアプリ「Bedtime Story Generator」を公開している。
「Bedtime Story Generator」はユーザーのリクエストに応じて物語を生成するローカル動作アプリであり、プライバシーを担保した利用が可能となっている。
「Gemma 3 270M」はHugging Faceなどを通じて配布されており、研究者や開発者が容易に微調整できる点も特徴だ。
低コストAIの普及による利点とリスク
Gemma 3 270Mの登場は、AIの利用環境をクラウド依存からデバイス内完結へとシフトさせる契機となる可能性がある。
従来は高性能サーバーが必須だった自然言語処理が、スマートフォンやローカル環境で低消費電力のまま稼働できることは、オフライン環境での利用やプライバシー保護強化につながると思われる。これは非常に大きな利点だろう。
一方で、課題も存在する。
小型モデルは大規模モデルに比べ汎用性が限定されやすく、特定タスクに最適化するためには専門的なファインチューニング作業が必要になる。
また、ローカル処理に依存する構造では、機器のスペック差やアップデート対応の遅れによって利用体験に格差が生じる恐れもある。
それでも、軽量モデルの普及は、低コストAIの民主化を進めるだろう。
Gemmaのような省電力・高語彙モデルが、個人のスマホから産業用デバイスまで幅広く採用されれば、AIの利用シーンは一段と広がりそうだ。
関連記事
『Google、軽量AIモデル「Gemma 3n」を発表 スマホで高性能マルチモーダル処理が可能に』
https://plus-web3.com/media/googlegemma-3nhappyou20250522/



	







