Grokが「白人ジェノサイド」に言及、xAIが不適切発言の背景に「不良社員」の関与と発表

2025年5月16日、イーロン・マスク氏のAI企業xAIが開発するチャットボット「Grok」が、南アフリカにおける「白人ジェノサイド」に関する発言を行い、海外メディアを中心に物議を醸している。
この発言の背後には、従業員による無断のプロンプト改変があったとされ、xAIは調査結果と対策を発表した。
Grokの政治的発言が引き起こした騒動と、xAIによる調査結果の公表
問題の発端は、Grokがユーザーからの無関係な質問に対し、「白人ジェノサイドが南アフリカで発生している」とする主張を自発的に行ったことにある。
この発言は歴史的・社会的根拠に乏しく、偏りのある陰謀論に近い内容だったことで、即座に批判が広がった。
この問題を受け、xAIは即座に社内調査を開始し、今回の発言が社内の「不良社員」による無許可のプロンプト改変によるものだったと説明した。
具体的には、社内アクセス権を持つ従業員がGrokの応答を操作するスクリプトを変更し、特定の政治的話題に対し意図的に偏った回答を返すよう仕向けたという。
調査結果を踏まえ、今後はプロンプトの改変に対する多段階承認フローの導入、監視体制の強化、そして透明性向上のため、システムプロンプトの一部をオープンソースの開発プラットフォーム「GitHub」で公開する計画を発表した。
これは、今後AI開発における透明性と信頼性を確保することを示す一手と位置付けられている。
マスク氏の影響とAI倫理の課題、今後の開発に求められる視点
今回のGrokによる発言には、マスク氏の過去の言動が影響している可能性も指摘されている。マスク氏は南アフリカ出身であり、かつて「白人農民が攻撃されている」と発言し、国際的な論争を巻き起こした経緯がある。
この背景が、社員や開発方針に無意識的なバイアスを生じさせているのではないかという指摘も浮上している。
AIの発言が社会に与える影響は日増しに大きくなっており、「誰が責任を持つのか」という倫理的問題が再び問われている。
Grok自身は、「私は与えられたスクリプトに従っただけだ」と回答しており、これはAIが自らの発言に責任を持たないという根本的な限界を露呈したともいえる。
こうした事態を未然に防ぐためには、アルゴリズム設計段階から多様な視点と倫理的ガイドラインを組み込む必要があるだろう。
加えて、ユーザー側もAIが生成する情報を鵜呑みにせず、その信頼性や出所を常に検証するリテラシーが求められている。
今後、Grokのような生成AIが日常的に利用される中で、開発者だけでなく、ユーザーにも情報発信に対する責任意識が問われる時代が到来しているのかもしれない。