BBC、AIアシスタントのニュース要約精度を調査 誤情報の生成を指摘
昨今、企業や個人の間でAIアシスタントの活用が急速に広がっている。しかし、その精度には深刻な課題が存在することが、BBCの最新調査で明らかになった。
BBCの調査の背景には、今年1月に発生したApple Intelligenceの誤報事件がある。同社の AI サービスが、殺人事件に関するBBCニュースの見出しを誤って要約し、実際には起きていない「容疑者の自殺」という誤報を生成したのだ。
参考 : Appleが誤報問題でAIニュース機能を停止 生成AIの信頼性にはいまだリスク残存
この事態を重く見たBBCは、主要なAIアシスタントの精度について包括的な調査を実施した。
AIアシスタントの信頼性の現状
BBCが実施した調査では、OpenAIのChatGPT、MicrosoftのCopilot、GoogleのGemini、Perplexityの4つのAIアシスタントを対象に、ニュース要約の正確性を検証した。その結果、全体の51%の回答に重大な問題が確認されたという。具体的には、BBCの記事を情報源として引用した回答のうち、19%が事実関係の誤りを含み、13%が引用内容を改変していたことが判明した。
各AIアシスタントの誤り率を見ると、Geminiが34%、Copilotが27%、Perplexityが17%、ChatGPTが15%という結果となった。特に問題とされたのは、事実の誤認、情報源の扱い、そして文脈の欠落である。
たとえば、イギリスの国民保健サービス(NHS)の禁煙対策に関する方針を完全に誤って伝えたケースや、重大な刑事事件の判決内容を誤って要約するなど、社会的影響の大きい誤りが確認された。
効果的にAIアシスタントを使用するために
このような状況下で、AIアシスタントを効果的に活用するためには、AIに対する理解を深めることと、人間側が責任を持ってコンテンツを確認することが必要である。BBCのAIプログラムディレクター、ピート・アーチャー氏は「AIは責任を持って使用された場合にのみ、真の価値をもたらす」と指摘している。
AIによるコンテンツ製作の最大の利点はそのスピードにある。
だが、スピードを重視するあまり人間のチェックが不十分になれば、誤情報発信による批判は避けられないだろう。意図していないのに読者を騙してしまうという最悪のケースにもつながりかねない。
人間は、厳正な監督官として、AIの生成したものをチェックし、信頼性を担保する必要がある。現段階では、AI単独では信頼できる情報を発信することはできないのだ。
まとめ
AIアシスタントは強力なツールである一方で、現状では重大な限界があることが明確になった。しかし、これはAIの活用を否定するものではなく、むしろ適切な使用方法の確立が急務であることを示している。
OpenAIの声明にもあるように、AIベンダー各社は引用精度の向上や、パブリッシャーの意向を尊重する取り組みを進めている。今後は、人間の判断力とAIの処理能力を効果的に組み合わせ、より信頼性の高い情報活用の仕組みを構築していくことが求められている。
Plus Web3は「Web3領域に特化したキャリア支援サービス」
Plus Web3では、Web3で働きたい人材と、個人に合わせた優良企業をマッチングする求人サービスを行っています。
- Web3で働くことも考えている…
- Web3のインターン先はどこがいいか分からない…
- どんな知識やスキルがあれば良いのか分からない…
このような悩みを抱える人は、一度「無料キャリア相談」にお越しください。あなたにマッチした優良企業をご紹介いたします。