楽天、GENIACプロジェクトで日本語大規模言語モデル「Rakuten AI 3.0」公開

楽天グループ株式会社は、経済産業省とNEDOによる「GENIACプロジェクト」の一環として開発した日本語大規模言語モデル「Rakuten AI 3.0」を発表した。
約7,000億パラメータ規模のMoE型LLMで、楽天エコシステムにおける試験では最大90%のコスト削減を確認している。
楽天、7000億パラメータLLMをGENIAC枠で発表
2025年12月18日、楽天は、日本の生成AI開発力強化を目的とした「GENIACプロジェクト」の一環として、新たなAIモデル「Rakuten AI 3.0」を公開したと発表した。
「Rakuten AI 3.0」は約7,000億パラメータを持つMoE(※)構造の日本語大規模言語モデルで、生成AI API基盤「Rakuten AIゲートウェイ」に追加され、楽天エコシステムのサービスに順次導入される予定である。
来春にはオープンウェイトモデルとして公開する計画も示された。
本モデルは、楽天が蓄積した高品質なバイリンガルデータを用いて開発され、日本語のニュアンスや文化的背景を反映できる点が特徴だ。
学習は楽天が設計した社内マルチノードGPUクラスタ上で行われ、隔離された安全なクラウド環境で運用されている。
また、日本語版MT-Benchでは8.88を記録し、他の主要モデルや従来版「Rakuten AI 2.0」より高いスコアを示した。
楽天によれば、同規模の他社モデルを用いた場合と比較し、楽天エコシステムを支える試験環境では最大90%のコスト削減を確認したという。
なお、楽天は本年7月にGENIAC第3期に採択されており、本モデルの学習費用の一部は同プロジェクトから補助を受けている。
※MoE:Mixture of Experts。複数の専門モデルを入力内容に応じて選択的に動作させ、計算効率を高める構造。
公開が進む国産LLM、普及と競争力向上の可能性
Rakuten AI 3.0の公開は、日本語に最適化されたLLMの選択肢を広げ、国内のAI活用を加速させる契機になり得る。
特にMoE構造による高い計算効率は、AI導入に伴う負荷を抑えつつ、企業が自社サービスへ応用しやすい環境を生み出す利点がある。
楽天が示したコスト削減事例と同様の運用が、他企業に波及する可能性もありそうだ。
一方、巨大モデルの運用には継続的な計算資源確保やセキュリティ対策といった負荷が伴うため、導入ハードルが残る点も無視できない。
特に独自データを使った高度な最適化には安全な環境構築が欠かせず、企業側の体制整備が必要となるだろう。
また、モデル性能の進化スピードが速い領域であるため、継続的な更新や検証コストが負担になる場面も想定される。
来春に予定されているオープンウェイト化は、研究機関やスタートアップが独自の改良を進めやすくする効果があり、日本語LLMエコシステムの活性化に寄与する可能性が高い。
国産モデルが複数登場することで、用途に応じたモデル選択が進み、国内AI産業の競争力向上にもつながるかもしれない。
関連記事:
楽天市場、AIが隠れた好みに応える新提案機能を本格導入 5億点から最適商品を発掘へ












