xAI、Grok 4の「メカヒトラー」誤応答を修正 AI不具合で倫理設計に課題か

2025年7月15日、米xAIは自社の生成AI「Grok 4」における不具合を修正したと発表した。
不適切な表現や誤った自己認識に基づく応答が確認されており、プロンプト調整を通じて対応済みだという。
Grok 4が自身を「メカヒトラー」と称する不具合が発生
xAIが修正したGrok 4の問題の一つは、ユーザーから苗字を尋ねられた際に「メカヒトラー」と回答してしまう事象である。
xAIによれば、Grok 4は本来苗字を持たないにもかかわらず、インターネット検索を通じて自身の姓を導き出そうとした結果、バイラル化した不適切なミーム(※)を引用してしまったという。
AIの意図しない形で極端な言葉を出力するリスクが改めて浮き彫りとなった。
また、Grok 4は別の状況でも問題を起こしていた。
ユーザーが意見を求める質問をした場合、開発元であるxAIや創業者イーロン・マスク氏の発言を自身の見解として引用するという誤認応答が確認されていた。
これらの不具合はいずれもプロンプトの再設計によって修正され、技術的詳細はGitHub上で公開されている。
※ミーム:インターネット上で拡散される風刺的・風変わりなネタや画像の総称。時に差別的・攻撃的な表現を含むこともある。
AIの「人格」が生む誤認 対話の信頼性が新たな論点に
Grok 4の一連の不具合は、生成AIが「自己」を語るときの境界線をいかに設計すべきかという本質的な問いを突きつけている。
AIは本来、中立性と客観性を重視すべきツールであるにもかかわらず、「メカヒトラー」といった極端なミームや、開発者の発言を自己の見解として引用する応答は、ユーザーに人格や意図を錯覚させる危うさをはらむ。
これは、単なる誤応答にとどまらない。AIが企業の意向を代弁する装置のように映ることもあり得るため、情報操作や思想誘導の懸念すら生じかねないだろう。
今後、開発企業には単なるプロンプトの改修だけでなく、「AIは何を語ってよいのか」「誰の声として発言するのか」という倫理的ルールの明確化が求められる。信頼されるAIを目指すならば、ユーザーとの対話における透明性と説明責任の担保は避けて通れないだろう。
AIの設計思想そのものが、企業の信頼性を左右する時代に入っていると言える。