リコー、「Gemma 3 27B」搭載AIオンプレミスLLM開発 高性能と省電力を両立

リコーは、Googleのオープンモデル「Gemma 3 27B」を基に、オンプレミス環境で動作する日本語LLMを開発した。高性能と省電力を両立し、企業のプライベートAI導入を支援する。
独自マージ技術で高性能化 オンプレミスで動作可能な日本語LLM
8日、株式会社リコーはGoogleのオープンモデル「Gemma 3 27B」をベースに、オンプレミス環境への導入に最適化した日本語大規模言語モデル(LLM)を発表した。
自社開発のモデルマージ(※1)技術を用い、「Gemma 3 27B」に複数のChat Vectorを統合した独自LLMを開発。
独自開発を含む約1万5千件のインストラクションチューニングデータで追加学習したInstructモデルから抽出したChat Vectorなどを活用し、性能向上を図ったとしている。
同社のベンチマーク評価では、米OpenAIの「gpt-oss-20b」など最先端のオープンウェイトモデルと同等のスコアを記録した。
同社によれば、非推論モデル(※2)としての高い初期応答性(※3)を実現しながら、高い執筆能力も兼ね備えており、ビジネス用途での活用に適するとしている。
モデルサイズは270億パラメータと比較的コンパクトで、PCサーバ(※4)でも構築可能なため、低コストでの導入が容易だ。
電力消費の抑制にも寄与し、環境負荷低減の観点からも実用的な構成となっている。
また、リコーは本モデルを個別提供に加え、エフサステクノロジーズの「Private AI Platform on PRIMERGY」に量子化モデルとして搭載し、生成AIプラットフォーム「Dify」とともにリコージャパンを通じて提供する。
これにより、ノーコードで自社向け生成AIアプリを構築できる環境が整う。
※1 モデルマージ:複数の学習済みLLMを統合し、少ない計算資源で高性能化を実現する手法。
※2 非推論モデル:論理的推論ステップを省略し、既存知識から直接回答を生成するLLMのタイプ。
※3 初期応答性(TTFT):ユーザー入力から最初の出力生成までの速度指標。
※4 PCサーバ:一般PCと共通部品を用いて製造される低コストサーバ。
オンプレミスAIが切り拓く“分散型利用”の未来
リコーの新モデルは、省エネルギーと高性能を両立しつつ、オンプレミス環境で安全に運用できる点が大きな魅力と考えられる。
これにより、企業はクラウドに依存せず自社データを保護しながら生成AIを活用でき、セキュリティ面や法令対応の観点から導入ハードルを大幅に下げる効果が期待できる。
特に製造業や自治体など、情報管理を厳格に行う分野では、導入の追い風となる可能性がある。
一方で、同モデルは非推論型であるため、複雑な推察や長文処理を必要とするタスクには限界があるだろう。
クラウド型LLMと比較すると、アップデート頻度や拡張性の面で課題を抱える可能性もあり、企業側が用途や目的を見極めて導入することが重要になりそうだ。
今後は、企業が求める「安全で持続可能なAI活用」の実現に向け、リコーがどのようにモデルの最適化とアップデート体制を整備していくかが焦点となるだろう。
軽量化や量子化技術の進化が進めば、オンプレミスAIの性能はさらに高まり、国産モデルの存在感が増すことも予想できる。
リコーの動きは、日本企業が自社の強みを活かしながら“分散型AI時代”にシフトしていく転換点となるかもしれない。
関連記事:
リコー、Dify支援サービスを提供開始 業務特化型生成AI導入を後押し

NTT、国産AI LLM「tsuzumi 2」提供開始 高性能と低コストで企業DXを支援

CTC、オンプレ環境で機密データを守る生成AI基盤「CUVIC GPU Zero」開始












