AI助言の解釈に注意 救急受診の判断を誤るリスク

2025年3月13日、日本救急医学会は、対話型AI「チャットGPT」の医療助言を一般利用者が誤って解釈し、救急受診の判断を誤る恐れがあると発表した。
AIの利便性が高まる一方で、医療の現場では人間の専門的判断が依然として不可欠であることが明らかになった。
高精度なAI回答でも利用者の解釈にばらつき、緊急度評価に大きな隔たり
日本救急医学会が日本国内で行った調査で、「チャットGPTが救急受診の必要性について助言を行った場合、一般利用者がその内容を適切に解釈できない」というリスクが浮き彫りになった。
調査は、緊急度が異なる466件の医療事例に対する「救急受診の必要性」をLLM(GPT-3.5)に尋ね、その回答を医療従事者と非医療従事者157名がどのように受け取るかを検証する、という形式で行われた。
その結果、緊急度が高いとされた314例において、救急の専門医は97%の助言を「適切」と評価したが、同じ事例に対する一般利用者の解釈では「救急受診が必要」としたのはわずか43%にとどまった。
一方、緊急度の低い152例では、専門家の89%が回答を適切と見なしたのに対し、32%の利用者が正しく解釈しなかった。
AIの助言精度そのものには高評価が与えられたものの、情報の受け取り手が正確に理解しなければ判断ミスに直結する可能性がある。
このような認識のズレが生まれる背景には、医療知識の差だけでなく、質問文や回答文のニュアンスに対する理解力の差も影響していると考えられる。
東京慈恵医科大学の田上隆教授は、「AIの応答には信頼性があるが、利用者がどのように受け取るかに差があるため、過度な依存は危険だ」と警鐘を鳴らしている。
進化するAIと医療現場のすみ分け、今後のリスクと期待される対応策
AIはすでに生活のさまざまな場面に浸透しており、医療領域においても簡易的な健康相談や症状チェックでの利用が広がっている。
だが、今回の調査結果から見えてきたのは、「精度の高い回答=受け取り手の正しい判断」には直結しないという現実である。
救急受診の可否といった緊急性を伴う判断では、わずかな言葉の違いが生死を分ける可能性も否定できない。
こうした状況を克服するためには、利用者側に「AIの返答はあくまで参考意見である」という理解を浸透させる必要があるだろう。
今回の報告は、AIの活用を全面的に否定する動きではない。
適切な使用法が共有され、専門医との連携が取れる仕組みが確立されれば、医療リソースの最適化や迅速な対応にもつながる可能性がある。
現時点では「AI+人間」の共存モデルが、最も現実的かつ安全な道と言えるだろう。
将来的な技術進歩により、利用者の文脈理解や個人背景を考慮した“パーソナライズド応答”が可能になれば、解釈のずれも徐々に減少していくと予測される。
AIの進化だけに頼るのではなく、社会全体で「正しい使い方」を共有し、実装と運用の両面から安全性を確保することが必要になるのではないだろうか。