Googleの軽量モデル生成AI「Gemma」1.5億DL突破

米Google Deepmindのエンジニアであるオマール・サンセビエロ氏は2025年5月11日(現地時間)、オープンな生成AIモデル「Gemma」の累計ダウンロード数が1億5000万回を超えたとXで発表した。開発者が自在にカスタマイズできる軽量モデルとして、世界中で高い注目を集めている。
自由度と実用性が支持を拡大 開発者の手で進化を続けるGemma
Googleが2024年2月に公開した大規模言語モデル「Gemma」は、軽量で高性能な設計が特徴であり、公開からわずか1年余りで1億5000万回以上ダウンロードされるなど、驚異的な広がりを見せている。
Gemmaは、質問応答や要約、推論といった多様な自然言語処理タスクに対応しており、開発者が自由に再調整し、自身のアプリケーションに組み込めるように設計されている。その柔軟性と利便性が、実装を重視する開発者層に支持される大きな要因となっている。
提供プラットフォームも充実しており、Google CloudのVertex AIやHugging Faceといった主要なAI開発基盤を通じてGemmaを活用できる点も普及を後押ししている。特にHugging Face上では、7万種類を超えるバリエーションが既に開発されている状況だという。
同様のオープンモデルとしては、米Metaの「Llama」が存在し、こちらは2023年の初代モデル公開以来、2024年4月末時点で累計12億回以上のダウンロードを記録している。GemmaはLlamaと比較して軽量かつカスタマイズ性に優れており、より用途特化型のソリューションとしての地位を確立しつつあると言える。
企業の実装フェーズが本格化へ 商用可能なGemmaの未来予測
Gemmaはオープンかつ商用利用が可能な点でも注目されている。企業が自社のプロダクトやサービスにGemmaを組み込むことで、コストを抑えつつ独自のAI機能を実装できる可能性が広がっている。
現在は主に開発者や研究者によるバリエーション開発が主流だが、今後は企業導入の具体例が増えていくと見られる。
Gemmaには、今後のアップデートや機能追加に関する詳細な計画は現時点で公表されていないものの、GoogleがAI領域において積極的な開発姿勢を示していることから、新たな展開が期待される。特に推論精度の向上やマルチモーダル対応など、競合との差異化に向けた進化が進む可能性がある。
AI市場全体を見れば、Gemmaのような軽量・高性能・オープンなモデルは、特定領域に最適化された「特化型AI」へのニーズの高まりと合致している。
開発者主体で進化するというGemmaの構造は、中央集権的なAI開発の在り方を再定義するものとなるかもしれない。