野村総研、小規模モデルでGPT-4oを上回る精度を達成 日本語特化の「業界・タスク特化型LLM」構築手法を開発

2025年4月15日、野村総合研究所(NRI)は、日本語に特化した小規模モデルを活用し、特定業界やタスクに最適化したLLM(大規模言語モデル)の構築手法を独自開発したと発表した。
低コストながら保険分野の実証でGPT-4oを上回る性能を示しており、国内企業の業務効率化を大きく後押しすると見られる。
汎用モデルの限界を打破
近年、汎用LLMはさまざまなタスクへの適用が進んでいるが、専門的な知識を要する業界や、業務プロセスへの深い理解が求められる分野では限界も指摘されてきた。
こうした課題に対し、NRIは東京科学大学と産総研が共同で開発した日本語特化の小規模LLM「Llama 3.1 Swallow 8B」をベースとし、特定分野に特化したモデルを開発した。
業界知識の適応として、NRI独自の「日本語金融コーパス」を活用し、継続的な事前学習を実施することで、モデルに専門用語や業界特有の文脈理解を組み込んだ。
その上で、営業現場でのコンプライアンスチェックを想定したシナリオベースの合成データによってファインチューニング(※)を施し、実際の業務タスクに即したモデルへと仕上げている。
こうしたアプローチにより構築されたモデルは、保険業界の営業コンプライアンスチェック業務において、OpenAIの最新汎用モデルであるGPT-4oを9.6ポイント上回る正解率を記録。
評価は344件の検証データを用いて行われ、実務に近い精度が求められる領域での有効性が示された。
※ファインチューニング:
事前学習済みのモデルに対して、特定タスクやドメインのデータを用いて再学習させる技術。モデルの性能を特定用途に合わせて最適化できる。
他業界への波及も視野に
NRIは今回の成果を基盤として、他業界への応用や商用展開を加速する構えだ。
2025年度には東京科学大学岡崎研究室との共同研究も計画されており、業界課題を反映した実証実験やモデル技術のさらなる高度化が視野に入っている。
ビッグテック企業やスタートアップとの連携も模索しており、実装力と技術力の両面から社会実装を進めていく方針である。
特化型LLMの利点は、専門性の高い分野でも高精度な応答が可能になる点にある。
また、小規模モデルであることから、クラウド環境に依存せず、オンプレミスでも運用可能という柔軟性も備えていると考えられる。
一方で、適用には対象業務に合わせた専門データの整備やファインチューニングの実装など一定の労力が必要となる。
また、特化性が高いがゆえに、モデルの汎用性や他業務への横展開において再構築が必要になるリスクも否定できない。
これまでは、日本のビジネス界においても、英語中心の巨大汎用モデルに依存せざるを得なかったが、国内の業務文脈を理解し、高精度で応答できるAIの国産化が現実味を帯びてきた。
特に、規制が厳しい業界においては、外資系大規模モデルへの依存から脱却し、自前の情報インフラを構築する方向性が加速する可能性も高まるだろう。