MENU
採用担当の方はこちら
業務委託案件をお探しの方はこちら

NTT、LLMの情報漏えいリスクを抑制する新技術「PTA」開発 応答精度も維持へ

人工知能、AI

2025年7月7日、NTT株式会社は、大規模言語モデル(LLM)の応答精度を維持しつつ、学習データからの情報漏えいリスクを低減する新技術「PTA(Plausible Token Amplification)」を開発したと発表した。
本技術は、AIの実用化における課題とされるプライバシーリスクへの対応を図るもので、日本国内の研究成果として注目される。

目次

NTT、LLMの情報漏えいリスクを軽減する技術を発表

NTTは、対話型AIに用いられる大規模言語モデル(LLM)において、応答精度を高く保ちながら学習データからの情報漏えいリスクを抑える新手法「PTA」を開発したと明らかにした。

従来、LLMの性能を高めるために活用される「文脈内学習(ICL)(※)」では、学習データとラベルを与えることで文脈に基づいた正確な応答が得られる一方、学習データに含まれる個人情報が推測されるリスクも指摘されてきた。
悪意ある利用者が一部情報を把握している場合、注文履歴などのセンシティブな情報を特定できてしまう恐れがある。

こうした課題に対しては、ラベルにノイズを加えてプライバシー保護を実現する「DP-ICL(差分プライバシー適用ICL)」が提案されてきたが、応答精度の低下が課題だった。

NTTの研究チームは、この精度低下の原因を理論的に解明し、重要語句がノイズにより埋もれることでルール推定の精度が下がると分析した。
PTAでは、応答に寄与する単語を強調し、ノイズの影響を軽減する手法を採用した。実験では、ニュース記事のトピック分類タスクにおいてDP-ICLより高い精度を達成したと報告されている。

なお、同技術の研究成果は、2025年7月13日からカナダで開催される国際会議「International Conference on Machine Learning(ICML)」にて発表される予定だ。

※文脈内学習(ICL):事前に学習したモデルに対し、少数の例(プロンプト)を与えることで新しいタスクに対応させる技術。モデルは例の文脈を踏まえ次の出力を予測する。

精度とプライバシーを両立 今後は柔軟な応用領域も視野に

PTAは、生成AIの社会実装におけるプライバシーリスクと応答精度の両立という課題に対する有力な解決策となり得る。
従来の差分プライバシー手法では、ノイズによって精度が犠牲になる問題があったが、PTAはその原因を理論的に解明し、精度維持に向けた改善策を示した点において意義深い。

今後は、金融・医療・行政など、正確な応答と情報保護の両立が求められる分野での応用が期待される。
LLMの普及に伴い、セキュリティを重視する企業が増えるなか、同技術の導入は競争力の向上にもつながると考えられる。

一方で、強調対象の単語選定や多様なタスクへの汎用性、計算資源への影響など、実用化に向けた課題も残されている。こうした要素が、今後の技術成熟を左右すると思われる。
PTAが国際会議で評価を得れば、共同研究や標準化の動きが加速し、プライバシー保護とAI性能の両立に新たな指針を示す技術として注目される可能性もあるだろう。

🚀 AI・Web3業界への転職を考えているあなたへ

「最先端技術に関わる仕事がしたい」「成長市場でキャリアを築きたい」そんな想いを抱いていませんか?

Plus Web3は、AI・Web3領域などテクノロジーに投資する企業の採用に特化したキャリア支援サービスです。

運営する株式会社プロタゴニストは、上場企業グループの安定した経営基盤のもと
10年以上のコンサルタント歴を持つ転職エージェントが
急成長する先端技術分野への転職を専門的にサポートしています。

こんな方におすすめです

▼成長産業であるAI・Web3業界で新しいキャリアを始めたい
▼「未経験だけど挑戦してみたい」という熱意がある
▼今のスキルを最先端技術分野でどう活かせるか相談したい
▼表に出ない優良企業の情報を知りたい

業界に精通したキャリアアドバイザーが、
あなたの経験・スキル・志向性を丁寧にヒアリングし、
最適な企業とポジションをマッチングします。

まずは無料キャリア相談で、あなたの可能性を広げるチャンスを掴みませんか?

Web3企業

AI企業

人工知能、AI

この記事が気に入ったら
フォローしてね!

Please Share
  • URLをコピーしました!
目次