NTTは、大規模言語モデル(LLM)同士の語彙の違いを乗り越える新技術を発表した。異なるAI間でも共通のトークン語彙で推論連携が可能になり、精度を維持したまま多様な異種LLM間で知識の統合・転移が実現する。
異種LLMの語彙統一で推論連携を実現
NTTは、LLMの推論単位である「トークン語彙(※)」を精度劣化なく縮小し、異なるモデル間で共通化する技術を開発したと、2026年4月22日に発表した。
従来、異なるLLMの間ではトークン語彙は一致しないことが一般的であるため、複数LLMの予測結果を統合して推論精度を向上させるアンサンブルや、別モデルに専門知識を転移させるポータブルチューニングなどが困難であった。
今回発表された技術では、LLMの出力品質を維持したまま、より少ないトークン候補(部分語彙)で次トークン予測を可能にする、世界初の理論を確立したという。
同理論では計算負荷の増加という課題も新たに生じたが、過去の推論結果のキャッシュ活用や低確率トークンの省略により、通常の推論と同等の計算コストを実現した。
なお、本成果は2026年4月23日~27日まで開催中の深層学習分野における最難関国際会議「ICLR 2026(International Conference on Learning Representations)」においても発表されている。
※トークン語彙:LLMが文章生成時に使用する単位の集合。単語や部分語、記号などで構成されており、モデルごとに異なることが多い。
AI協調時代実現による利点とリスク
本技術の最大のメリットは、異なるLLMの知識を統合し、単体では到達できない精度を引き出せる点だろう。専門特化型モデルと汎用モデルを組み合わせることで、用途ごとに最適な推論環境を構築できそうだ。
独自語彙モデルでも外部LLMと連携できると考えられるため、企業ごとのAI資産を活かした柔軟な運用も現実味を帯びる。
一方で、複数モデルの連携はシステムの複雑化を招き、運用コストや障害時の切り分けが難しくなるリスクがある。加えて、あるモデルの誤りやバイアスが他モデルに伝播する可能性もあるため、品質管理や責任分界の設計はより重要になると考えられる。
将来的には、単一モデルの性能競争から、複数AIの協調による「集合知」型アーキテクチャへの移行が進むと見られる。ただし、その実装には技術的進展とガバナンス整備の両輪が求められることになるだろう。
関連記事:
NTT、世界初の200GHz級受光素子を実現 3.2Tbps光通信の実用化へ前進

デジタル庁、国産LLMを「源内」でAI実証開始へ ガバメントAI導入を視野
