ELYZA、日本語AI拡散型LLMを商用利用で公開、省電力志向の新モデル

2026年1月16日、株式会社ELYZAは、日本語に最適化した拡散型大規模言語モデル「ELYZA-LLM-Diffusion」を商用利用可能な形で公開したと発表した。
開発にはKDDI株式会社のGPU基盤を利用しており、生成速度の向上や消費電力の低減が期待されるとしている。
ELYZA、日本語拡散型LLMを商用利用で公開
ELYZAが16日に公開した「ELYZA-LLM-Diffusion」は、拡散モデル(※)を言語生成に応用した日本語特化の大規模言語モデルである。
従来の自己回帰型モデルと異なり、左から右へ文章を順に生成する必要がなく、ノイズ除去の過程を通じてテキストを生成するという。
設計次第では処理回数を抑えられ、推論の高速化や消費電力の低減が期待されている。
開発にあたっては、HKU NLP Groupが公開した拡散型LLMを基盤に、日本語データによる追加事前学習と指示学習を実施した。
これにより、日本語の知識量や指示追従性能を強化したとしている。
公開モデルは、基盤モデルと指示対応モデルの2種類で、同シリーズを商用利用可能な形で公開したとしている。
日本語タスクを中心とした評価では、既存のオープンな拡散型LLMと比較して同等以上の性能を示したという。
本モデルを用いたchatUI形式のデモも公開されている。
※拡散モデル:元データにノイズを加える拡散過程と、そこからノイズを取り除く逆拡散過程を学習し、ノイズからデータを生成する手法。
拡散型LLMが示す省電力という新軸
本モデルの最大のメリットは、生成AIの電力消費が国際的な論点となる中で、日本語に特化した省電力LLMという現実的な選択肢を示した点にあるだろう。
拡散型LLMは生成時の計算量を抑えられる可能性があり、データセンター負荷や運用コストの低減につながると考えられる。
日本語最適化モデルが商用条件で公開された意義は小さくないはずだ。
一方で、拡散型LLMは学習コストの高さや推論基盤の成熟度といった課題も抱えていると考えられる。
自己回帰型モデルと比べるとエコシステムは発展途上にあるため、ツールや周辺技術の整備、実運用における安定性については、今後も検証が必要になりそうだ。
今後の焦点は、評価結果や技術情報をどこまで継続的に開示し、企業利用や研究用途で実績を積み上げられるかどうかだろう。
高速生成と省電力という特性が実証されれば、日本語生成AIの設計思想そのものに影響を与える可能性もあり、国内LLM開発に新たな方向性を示す事例となり得そうだ。
関連記事:
中国AIユニコーン智譜が香港上場 LLM開発企業として世界で初めて上場に成功

デジタル庁が国内LLM公募を開始 ガバメントAIで使用する国産モデル評価へ

楽天、GENIACプロジェクトで日本語大規模言語モデル「Rakuten AI 3.0」公開












