メインコンテンツへスキップ
最新ニュース 2分で読める

NIIが国産LLM公開、日本語性能でGPT系超え 企業AI開発は自前化へ加速

PlusWeb3 編集部
PlusWeb3 編集部 Web3・AI専門メディア

2026年4月3日、国立情報学研究所(NII)は約12兆トークンで学習した国産の大規模言語モデルを公開したと発表した。日本語性能で米OpenAIの公開モデルを上回る結果が示され、国内AI開発の主導権が転換する可能性がある。

12兆トークン学習で日本語性能を刷新

NIIが公開したのは、約86億パラメータと約320億パラメータの2種類の大規模言語モデルである。後者は複数の専門ネットワークを組み合わせる構造を採用し、計算効率と性能の両立を図った点が特徴となる。いずれも約12兆トークンという過去の約6倍に相当するデータで訓練されており、言語理解の深度が大幅に引き上げられた。

性能評価では42種のタスクを横断的に測定する独自指標が用いられ、日本語の理解・生成能力で海外モデルを上回る結果が確認された。さらに英語性能でも国際指標で高水準を記録しており、多言語対応力を備えた実用モデルに到達したと言える。

加えて、モデル本体だけでなく学習データセットも公開された点は重要だ。外部から検証可能な形で構築されたデータは、透明性と再現性の確保を重視する近年の潮流に合致している。

同研究所は今後、開発したモデルを活用して生成AIの研究を進める。

さらに2026年度中には、よりパラメータ数の多い大規模モデルや実際の業務システムに組み込んで運用しやすい軽量モデルを順次開発して公開する計画だ。

国産AIの自立化進むが競争は激化

今回の公開は、日本企業にとってAI開発の選択肢を大きく広げる契機となるだろう。これまで海外APIに依存していた企業は、自社環境でモデルを運用・改良する道が現実味を帯びる。特に機密性の高い業務領域では、データを外部に出さない運用が可能になる点は大きな利点である。

一方で、オープンソース化は競争の加速も招く。誰でも同じ基盤にアクセスできるため、差別化はモデルそのものではなく応用設計やデータ活用へと移行する可能性が高い。また、大規模計算資源の確保や継続的なチューニングには依然として高コストが伴うため、企業間の技術格差が拡大する懸念も残る。

今後AIの主戦場は「利用」から「設計・最適化」へとシフトし、日本の産業競争力に新たな軸をもたらす可能性がある。

国立情報学研究所 ニュースリリース

Share this article コピーしました
WRITTEN BY

PlusWeb3 編集部

Web3・AI専門メディア

PlusWeb3 編集部は、ブロックチェーン・Web3・AIの最新動向をわかりやすくお届けする専門メディアチームです。業界経験豊富な編集者とリサーチャーが、信頼性の高い情報を厳選してお届けします。

記事を寄稿しませんか?

Web3・AI領域の専門家からの寄稿を募集中。掲載は編集部名義、内容は事前審査のうえ掲載可否をご連絡します。

この記事が役に立ったら、ニュースレターも登録しませんか?

Web3・AI業界の厳選ニュースを定期配信。いつでも解除可能。

スパムは送りません。プライバシーポリシーに基づいて管理します。

コピーしました

Web3・AI・DeepTech領域でのキャリアをお考えですか?

業界専門のコンサルタントが、あなたに最適なキャリアパスをご提案します。