イタリア競争当局、中国AI企業ディープシークを調査 「幻覚」生成への警告不備で

2025年6月16日、イタリアの独占禁止当局である競争・市場保護委員会(AGCM)は、中国のAI企業ディープシークが不正確な情報を生成するリスクについて、十分な警告を怠っていた疑いで調査に着手した。
ロイター通信が報じている。
「幻覚」リスクを巡り、明示的な警告欠如と判断
AGCMは、ディープシークのAIが、事実と異なる虚偽情報を生成する事象、いわゆる「ハルシネーション(※)」を起こすことについて、利用者に十分な説明を行っていなかったと指摘した。
ユーザーが生成コンテンツを事実と誤認する可能性が生じていたと見なされたのである。
同社は現時点で、AGCMのコメント要請に応じていない。
また、同様の懸念は過去にも提起されており、2025年1月にはイタリアのデータ保護当局が、同社のプライバシーポリシーの不備を理由に、ディープシークアプリをAppleおよびGoogleのアプリストアから削除するという出来事があった。
イタリアはディープシークに対してリリース当初から警戒を見せている。
調査対象となっているのは、主に生成AIを活用したチャットサービスであり、虚偽情報の流通が誤報や社会的混乱につながるリスクが懸念されている。
※ハルシネーション:AIがもっともらしく見えるが誤った情報を生成する現象。生成AIの信頼性や説明責任に関する議論で中心的な問題とされている。
AI規制の焦点は「誤情報リスク」へ 欧州各国に波及も
今回の調査は、AIによる情報生成がもたらす社会的責任と透明性の確保に関する欧州の規制動向を象徴する動きといえる。
特にハルシネーションは、精度の高いAIシステムにおいても根本的な課題とされており、その対処方法は国際的に注目されている。
欧州はAIに対する規制を明確化しており、生成AIの信頼性と説明責任が強化されることで、ビジネスや教育、医療など多様な分野におけるAI活用の健全化が期待できる。
一方で、規制が過度に厳しくなれば、AI企業のイノベーションを阻害し、特にスタートアップの参入障壁を高めるおそれもある。
今後、欧州連合(EU)レベルで進められているAI法案の議論においても、「ユーザーへの誤情報リスクの説明義務」が義務化される可能性がある。
ディープシークへの調査が先例となり、他国の監督機関が同様の措置に動く可能性も考えられるだろう。
参考 : https://plus-web3.com/media/chaiaplideepseekitastop20250130/