日本語特化LLMをストックマークが公開 エヌビディアのNIMで提供開始

2025年9月25日、AIスタートアップのストックマーク(東京都港区)は、日本語に特化した1000億パラメーターのLLM(※)「Stockmark-2-100B-Instruct」を発表した。米エヌビディアのマイクロサービス「NVIDIA NIM」として用意した。
ストックマーク、日本語特化LLMをエヌビディア経由で提供
ストックマークは、独自開発の大規模言語モデル(LLM)「Stockmark-2-100B-Instruct」を公開した。25日に都内で開かれた「NVIDIA AI Day Tokyo」で発表され、エヌビディアのマイクロサービス群「NVIDIA NIM」を通じて利用可能になる。
このモデルは、日本語のビジネス文書や会話文を中心に学習して構築された。既存のオープンソースLLMを改良する方式ではなく、ゼロから設計したことで、専門用語やビジネス文脈に強みを持つ点が特徴である。ストックマークはエヌビディアのスタートアップ支援プログラムの一員であり、その枠組みの中でNIMを介した提供に至った。
NIMを利用する開発者や企業は、このLLMを基盤に独自のアプリケーションを開発できる。エヌビディアのサービスの一部として展開されることで、一定の性能や信頼性が確保されることも意味する。
ストックマークの有馬幸介CTOは「従来比で推論速度が最大2.5倍向上」と強調し、「1000億パラメーター級のAIを誰もが自社の管理下で安全かつ容易に扱えることを意味し、AI活用の裾野を大きく広げるもの」と述べた。
※LLM(大規模言語モデル):大量のテキストデータを学習し、人間のように自然な文章を生成するAIモデルの総称。規模の指標として「パラメーター数」が用いられる。
国産LLMが切り開く可能性と残された課題
今回の発表は、日本独自の大規模言語モデル開発が加速していることを示す。特に、自国の文化や言語環境に合わせたAIを国内で制御できる点は、経済安全保障の観点から注目されることが多く、「ソブリンAI」としての意義も指摘されている。
日本語に特化したLLMは、契約書や顧客対応といったビジネス実務に直結する強みがあると考えられ、導入効果は複数の分野で期待される可能性がある。NIMを通じた提供により、利用のしやすさや普及のスピードも加速すると見込まれる。
一方で、1000億パラメーター規模のモデルは運用コストが高く、利用企業にとっては計算資源の確保が課題になる可能性がある。
また、日本語圏以外への拡張性や生成内容の正確性、誤用防止といった倫理的・技術的リスクも残されている。特に、AIの出力が実際の業務判断に影響を及ぼす場面では、適切なガバナンスが求められる場面もあると考えられる。
今後は、国内外の企業がこのモデルをどの程度採用し、日常業務に浸透させられるかが注目される。国産LLMとしての存在感を高めつつ、信頼性と実用性を両立できるかどうかが、日本発のソブリンAIの将来を占う試金石になる可能性があると見られる。











