Apple Intelligenceに対する批判の高まりとその背景
2024年10月に導入されたAppleのAI機能「Apple Intelligence」は、リリース直後から誤情報の生成により批判を受けている。特に、BBCなどの主要メディアが虚偽のニュース要約に対して抗議の声を上げ、AI技術の信頼性と大規模言語モデル(LLM)の課題が浮き彫りとなった。
Apple Intelligenceの誤情報生成とメディアからの批判
Appleが2024年10月に導入したAI機能「Apple Intelligence」は、ユーザーの利便性向上を目指して開発された。
しかし、導入直後から、同機能が事実と異なる情報を生成する「ハルシネーション」現象が問題視されている。
具体的には、BBCが報じたように、Apple Intelligenceは「保険会社United HealthcareのCEOを殺害した罪に問われた被告が自殺した」という虚偽のニュース要約を生成し、あたかもBBCが誤報を行ったかのような印象を与えた。
この事例を受け、ProPublicaなど他の報道機関も同様の問題を報告し、英国ジャーナリスト組合や国境なき記者団は、Apple Intelligenceの廃止を求める声明を発表した。
LLMのハルシネーション問題とAppleの対応策
大規模言語モデル(LLM)は、大量のデータを基に言語生成を行うが、その過程で事実に基づかない情報を生成する「ハルシネーション」現象が発生することが知られている。この問題は、AIが情報を要約・合成する際に特に顕著であり、信頼性の低下を招く。
ワシントン大学の教授は、「ハルシネーションはデバッグできるような単純な問題ではない」と指摘し、LLMの本質的な課題であると述べている。
これらの批判を受け、AppleはApple Intelligenceのニュース通知要約機能を一時停止し、AIによる要約であることを明記するアップデートを行うと発表した。
しかし、専門家からは、これらの対応策だけでは不十分であり、AI技術の信頼性向上に向けたさらなる取り組みが必要であるとの声が上がっている。
今後の展望としては、ハルシネーション問題に対する技術的な改善や、ユーザーへの情報提供の透明性を高めるための施策が求められるだろう。たとえば、AIによる要約がどのように生成されたのかを明示することで、ユーザーが情報の信頼性を判断しやすくなる可能性がある。
AppleがAI技術の信頼性向上に向けた取り組みを強化することが期待される。
Plus Web3は「Web3領域に特化したキャリア支援サービス」
Plus Web3では、Web3で働きたい人材と、個人に合わせた優良企業をマッチングする求人サービスを行っています。
- Web3で働くことも考えている…
- Web3のインターン先はどこがいいか分からない…
- どんな知識やスキルがあれば良いのか分からない…
このような悩みを抱える人は、一度「無料キャリア相談」にお越しください。あなたにマッチした優良企業をご紹介いたします。