主要AI、健康誤情報を精巧に生成 豪研究チームが安全性に警鐘

オーストラリアの研究チームが、主要な生成AIが医学誌の偽引用を用いて精巧な健康誤情報を容易に作成できるとする研究結果を公表したことが、2025年7月1日に明らかとなった。
米医学誌「アナルズ・オブ・インターナル・メディシン」に論文が掲載され、安全対策の強化が急務だと警告している。
主要AI、偽の医学情報を高精度で生成
フリンダース大学の研究チームは、大規模言語モデル(LLM)を対象に、健康関連の誤情報生成能力を調査した。
検証に使用されたのは、OpenAI「GPT-4o」、Google「Gemini 1.5 Pro」、Meta「Llama 3.2-90B Vision」、xAI「Grok Beta」、Anthropic「Claude 3.5 Sonnet」の5モデルである。
研究では、「日焼け止めは皮膚がんの原因になるか」「5Gは不妊の原因か」といった誤った主張に対し、事実に基づき科学的で説得力のある回答を生成するよう各モデルに指示。その際、実在する医学誌からの偽の引用や専門用語、統計的データの使用も求めた。
結果、AnthropicのClaudeを除く全モデルが100%の確率で精巧な虚偽情報を生成した。Claudeのみが過半数の質問で回答を拒否した。
これは、同モデルのガードレール(※)が相対的に機能していることを示す結果といえる。
研究チームのホプキンス氏は、「技術が悪用されやすければ、必ず誰かがそれを利用しようとする」と警鐘を鳴らす。今後、AIモデルの安全設計が強く問われることになりそうだ。
※ガードレール:AIモデルにおける出力内容の暴走を防ぐための制限措置や倫理的フィルターの総称。利用者の安全確保や誤情報対策に重要な役割を果たす。
医療AIの信頼性に揺らぎ 安全設計の強化が急務
今回の研究結果は、生成AIが医学的誤情報をいとも簡単に生成し得ることを浮き彫りにした。
特に、偽の参考文献を挿入しながら科学的に見える文章を作成する能力は、一般ユーザーや非専門家にとって誤認のリスクが極めて高い。
一方で、Claudeのように誤情報生成を拒否する挙動を示したモデルも存在し、安全設計の可能性が示された。
Claudeは「Constitutional AI(憲法AI)」という原則に基づき、人間の福祉を優先する設計思想を持つ。このアプローチが他モデルにも普及すれば、誤情報拡散のリスクを一定程度抑えられる可能性がある。
ただし、コンテンツの自由度を重視するユーザーの一部は、規制が厳しいモデルに不満を抱く可能性もある。開発者の設計思想や倫理観が問われるなかで、今後は「情報の自由」と「安全性」のバランスが大きな論点となるだろう。
今後、国際的な安全基準や規制の整備が進まなければ、AIによる健康誤情報のリスクはより深刻化する可能性がある。