メインコンテンツへスキップ
最新ニュース 3分で読める

日本語特化LLMをストックマークが公開 エヌビディアのNIMで提供開始

PlusWeb3 編集部
PlusWeb3 編集部 Web3・AI専門メディア

2025年9月25日、AIスタートアップのストックマーク(東京都港区)は、日本語に特化した1000億パラメーターのLLM(※)「Stockmark-2-100B-Instruct」を発表した。米エヌビディアのマイクロサービス「NVIDIA NIM」として用意した。

ストックマーク、日本語特化LLMをエヌビディア経由で提供

ストックマークは、独自開発の大規模言語モデル(LLM)「Stockmark-2-100B-Instruct」を公開した。25日に都内で開かれた「NVIDIA AI Day Tokyo」で発表され、エヌビディアのマイクロサービス群「NVIDIA NIM」を通じて利用可能になる。

このモデルは、日本語のビジネス文書や会話文を中心に学習して構築された。既存のオープンソースLLMを改良する方式ではなく、ゼロから設計したことで、専門用語やビジネス文脈に強みを持つ点が特徴である。ストックマークはエヌビディアのスタートアップ支援プログラムの一員であり、その枠組みの中でNIMを介した提供に至った。

NIMを利用する開発者や企業は、このLLMを基盤に独自のアプリケーションを開発できる。エヌビディアのサービスの一部として展開されることで、一定の性能や信頼性が確保されることも意味する。

ストックマークの有馬幸介CTOは「従来比で推論速度が最大2.5倍向上」と強調し、「1000億パラメーター級のAIを誰もが自社の管理下で安全かつ容易に扱えることを意味し、AI活用の裾野を大きく広げるもの」と述べた。

※LLM(大規模言語モデル):大量のテキストデータを学習し、人間のように自然な文章を生成するAIモデルの総称。規模の指標として「パラメーター数」が用いられる。

国産LLMが切り開く可能性と残された課題

今回の発表は、日本独自の大規模言語モデル開発が加速していることを示す。特に、自国の文化や言語環境に合わせたAIを国内で制御できる点は、経済安全保障の観点から注目されることが多く、「ソブリンAI」としての意義も指摘されている。

日本語に特化したLLMは、契約書や顧客対応といったビジネス実務に直結する強みがあると考えられ、導入効果は複数の分野で期待される可能性がある。NIMを通じた提供により、利用のしやすさや普及のスピードも加速すると見込まれる。

一方で、1000億パラメーター規模のモデルは運用コストが高く、利用企業にとっては計算資源の確保が課題になる可能性がある。

また、日本語圏以外への拡張性や生成内容の正確性、誤用防止といった倫理的・技術的リスクも残されている。特に、AIの出力が実際の業務判断に影響を及ぼす場面では、適切なガバナンスが求められる場面もあると考えられる。

今後は、国内外の企業がこのモデルをどの程度採用し、日常業務に浸透させられるかが注目される。国産LLMとしての存在感を高めつつ、信頼性と実用性を両立できるかどうかが、日本発のソブリンAIの将来を占う試金石になる可能性があると見られる。

Share this article コピーしました
WRITTEN BY

PlusWeb3 編集部

Web3・AI専門メディア

PlusWeb3 編集部は、ブロックチェーン・Web3・AIの最新動向をわかりやすくお届けする専門メディアチームです。業界経験豊富な編集者とリサーチャーが、信頼性の高い情報を厳選してお届けします。

この記事が役に立ったら、ニュースレターも登録しませんか?

Web3・AI業界の厳選ニュースを定期配信。いつでも解除可能。

スパムは送りません。プライバシーポリシーに基づいて管理します。

コピーしました

Web3・AI・ディープテック領域のキャリアに興味がありますか?

業界特化メディアを運営する専門エージェントが、企業のカルチャー・技術スタック・選考ポイントまで踏まえてキャリアをご提案します。相談は完全無料です。