Google、翻訳特化AI「TranslateGemma」公開 55言語対応オープンモデル

2026年1月15日、米IT大手のGoogleは、オープンモデル「Gemma 3」を基盤とした翻訳特化AI「TranslateGemma」を公開した。
日本語を含む55言語に対応し、高精度と計算効率を両立した点が特徴で、研究者や開発者向けに提供が始まっている。
翻訳特化の「TranslateGemma」、小規模でも高精度
TranslateGemmaは、Gemma 3をベースに翻訳用途へ最適化したオープンモデル群で、4B、12B、27Bの3サイズで提供される。
ベースとなっているGemma 3は2025年3月12日に発表されたオープンソースモデルで、単一のGPUやTPUで動作するほど軽量でありながら、高い性能を保っているのが特徴だ。
今回公表されたTranslateGemma最大の特徴も、モデル規模に対する性能の高さにあり、高い翻訳精度を実現している。
Googleによれば、12Bモデルは既存の27B規模のGemma 3を上回る性能を示し、4Bモデルでも12B相当の精度に迫ったという。
評価には、55言語を対象とするWMT24++ベンチマークが用いられ、高・中・低リソース言語を問わず誤り率が一貫して低下した。
Googleによると、この効率化はGemini系大規模モデルの知識を蒸留する二段階学習によって実現したとのことだ。
学習の際に組み合わせたのは、教師ありのファインチューニングと、強化学習の二つだ。
人間が用意した正解訳で基本的な翻訳能力を学習させたうえで、訳文の自然さや適切さを評価基準として繰り返し改善する仕組みを採用した。
これにより、単なる直訳ではなく、文脈や言語ごとの表現差を踏まえた翻訳を実現しているという。
また、画像内テキスト翻訳でも精度向上が確認されており、翻訳に特化しつつもマルチモーダル性能を維持している点も強みだ。
軽量翻訳AIの普及で進む分散実装と課題
TranslateGemmaの登場は、翻訳AIの利用形態を広げる可能性がある。4Bモデルはモバイルやエッジ端末、12Bは一般的なノートPC、27Bは単体GPUやTPU上での運用を想定しており、クラウド依存を抑えた分散実装が現実的になる。
企業にとっては、低遅延かつ低コストで高品質な多言語対応を内製できる点が大きな利点となりそうだ。
一方で、オープンモデルであるがゆえのリスクもある。低リソース言語への適用は有望だが、評価指標が未整備な言語ペアも多く、実運用では品質検証が不可欠となるだろう。
それでも、翻訳性能を軽量モデルで実現した意義は大きい。
TranslateGemmaは、AI翻訳を「一部の大規模事業者の専有物」から、より開かれた基盤技術へ押し広げる存在になると考えられる。
関連記事:
Google、マルチモーダル対応の次世代オープンLLM「Gemma 3」を発表 エージェント機能にも対応












