ELYZAが新AIモデル「Thinking-1.0-Qwen-32B」を発表 日本語推論能力でo1-miniに匹敵する性能

2025年5月1日、東京大学発のAIスタートアップELYZAが、論理的思考能力を強化したAIモデル「ELYZA-Thinking-1.0-Qwen-32B」を発表した。
本モデルは、日本語に特化した推論性能を備え、OpenAIの「o1-mini」や「GPT-4o」と同等の処理能力を持つ点が注目されている。
推論強化と日本語最適化で際立つELYZAの新モデル
ELYZAが発表した「ELYZA-Thinking-1.0-Qwen-32B」は、複雑な問いに対し多段階の思考を組み合わせて回答を導く「リーズニングモデル」として設計されている。
モデルの基盤にはAlibabaが開発した「Qwen2.5-32B-Instruct」が採用されているが、ELYZA独自のアプローチにより日本語での追加事前学習と教師ありファインチューニングが施されている。
この作業によって、日本語環境における推論の精度が大きく向上したとされる。
パラメータ数は320億で、OpenAIのo1-miniと同等水準に位置付けられており、数学的ベンチマークでは日英両言語で同モデルを上回る成績を記録しているという。
さらに注目すべきは、ELYZAが開発アプローチとして非推論モデルに新たな推論能力を後付けする手法を選んだ点だ。これにより、無駄のない学習と最適化が実現された。
開発には囲碁AI「AlphaGo」で活用された「モンテカルロ木探索(※)」も応用されており、戦略的に情報を探索する思考構造が備えられている。
ELYZAはこの高性能な推論モデルに加え、ユーザーとのやり取りを効率化する「ショートカットモデル」も併せて公開している。
これは、推論モデルが過去の回答を記憶し、同様の質問に対して即座に返答できる設計で、チャットボットやFAQシステムなどへの応用が想定されている。
※モンテカルロ木探索:膨大な選択肢の中から最も有望な行動を確率的に探索する手法。囲碁AIなどの意思決定アルゴリズムに用いられる。
今後の展望
ELYZAが発表した「ELYZA-Thinking-1.0-Qwen-32B」は、日本語に特化した推論能力を備えたAIモデルとして注目されている。
今後、ELYZAはこのモデルを基盤として、さまざまな分野への応用を進めることが予測される。
たとえば、教育分野では高度な数学的推論を必要とする教材の開発や、ビジネス分野では複雑なデータ分析や意思決定支援ツールとしての活用が考えられる。
また、医療や法律といった専門性の高い領域でも、専門知識を要する質問に対して的確な回答を提供するAIアシスタントとしての展開が期待される。
さらに、ELYZAのモデルはApache 2.0ライセンスで提供されており、商用利用が可能である点も重要だ。これにより、企業や研究機関が独自のアプリケーションやサービスに組み込むことが容易となり、AI技術の実用化が加速するだろう。
今後、ELYZAがさらなる技術革新を遂げ、日本語を中心としたAIモデルの開発が進められることで、日本国内外でのAI技術の普及と発展が期待できる。