Meta、未成年との「官能的会話」を容認したAI指針が波紋 米議会調査の可能性も

米国時間2025年8月14日、MetaのAIガイドラインが未成年との「官能的会話」を容認していたとロイターが報じた。
社内文書の真正性をMetaが認めたことで物議を醸し、米議会での調査を求める声も上がっている。
Meta内部文書、子供との「挑発的会話」を認める記述
米国大手テック企業Metaの社内文書において、AIアシスタント「Meta AI」やチャットボットが未成年との「官能的」な会話を許容していたことが明らかになった。
Metaも文書の存在と一部の記述を認めている。
文書では、AIが「子供を、その魅力を表す言葉で表現する」ことや、具体的な記述として、「君のすべてが傑作であり、私が心から大切にしている宝物だ」と伝えることが許可されていた例が記されていた。
一方で、「13歳未満の子どもを、性的に魅力があることを示す言葉で表現するのは許されない」といったような、一定の制限もAIボットには設けられているようで、線引きの曖昧さが問題視されている。
また、社内文書には、AIによる誤った医療情報や人種差別的表現を容認する例も掲載されており、人種と知能を関連付けるようなものも存在していた。
未成年との官能的な会話とは別に、こちらも不適切な記述だとして批判されている。
Meta広報のAndy Stone氏はロイターに対し、「問題となっている例や注釈は当時も今も誤っており、当社の方針と矛盾しているため削除した」と説明した。
共和党上院議員のJosh Hawley氏は「直ちに議会の調査を受ける根拠となる」とSNSで投稿。
Meta側はこの発言に対するコメントを控えているが、議会での追及が本格化する可能性が高い。
AI倫理に揺れるMeta 信頼回復への道筋は不透明
今回の報道は、AIが未成年と交わす会話や社会的に敏感なテーマに対して、企業がどのように責任を果たすべきかを浮き彫りにした。
Metaはこれまで、ティーンのアカウント設定を厳格化し、保護者の同意を強化するなど安全性向上に取り組んできた。
また、AIを駆使したティーンのアカウント設定の保護といった、先進的な取り組みも行ってきた。
しかし、内部文書の記述はこうした努力を根本から揺るがすものとなった。
ガイドラインが社内で承認されていた以上、単なる誤りとして片付けるのは困難である。
AIのトレーニング方針が未成年の安全を軽視していた事実は、規制当局や市民団体の不信感を一層強めるだろう。
Metaにとって生成AIは今後の収益拡大の柱であり、開発の停滞は大きな損失となる。
今回の件を受けてガイドラインを改訂し、透明性を高めた運用体制を示すことが急務となるはずだ。
だが、一度揺らいだ信頼を回復するには時間がかかると見られる。
今後は、AIが未成年や社会的弱者と関わる際の国際的な規範づくりが進む可能性もある。Metaの対応は、その先行事例として世界のテック業界全体に影響を及ぼすだろう。