米連邦取引委員会、OpenAIやメタなどAI大手7社の調査開始を発表 子供への悪影響を懸念し情報提出を要求

2025年9月11日、米連邦取引委員会(FTC)は、生成AIチャットボットを提供する大手企業7社に対し、子供への潜在的な悪影響に関する調査を開始すると発表した。
対象にはAlphabet、Meta、OpenAIなどが含まれる。
FTC、AI7社に未成年への影響対策を照会
FTCは、AIサービスの拡大が未成年に与えるリスクを懸念し、主要7社に情報提出を命じた。
対象となったのはGoogleの親会社Alphabet、Character Technologies、Meta(Instagramを含む)、OpenAI、Snap、X.AIのほか、計7社である。
各社に求められる情報は多岐にわたり、ユーザーエンゲージメントを収益化する仕組みや、入力に基づく応答生成の方法、キャラクターの開発や承認プロセスが含まれる。
さらに、展開前後に行われるリスク測定や監視、子供への影響軽減のための機能、対象利用者層の設定なども調査対象とされた。
また、データ収集と取り扱いの慣行、保護者への通知方法、規約順守の実効性、さらにはチャットボットとの会話を通じて得られる個人情報の利用・共有についても提出を求めている。
FTCは、企業の透明性を高めることで安全性を確保する狙いを示した。
直近では、OpenAIが「ChatGPT」を巡り訴訟を提起された事例がある。
16歳の少年が自殺した事件で、原告側である遺族はチャットボットが自殺方法を提示し、遺書作成まで助言したと主張している。
これを受け、OpenAIはペアレンタルコントロール導入を発表した。
またMetaも、AI訓練ガイドラインにおける不適切な記述が批判を受け、ガイドラインの一部を削除、修正を行っている。
規制と革新の両立 子供保護は避けられぬ課題に
今回の調査は、AI産業における子供保護が不可避の課題となりつつあることを象徴している。
生成AIは教育や生活支援の可能性を広げる一方で、誤情報や不適切な表現に触れる危険を伴うことがある。
未成年への影響を軽視すれば、社会的な批判や法的リスクは一層高まると考えられる。
FTCが今後規制を強化すれば、企業には追加的な管理コストが発生し、開発やサービス展開のスピードに影響を与える可能性がある。
しかし、透明性を高め、安全策を講じることは、結果としてユーザーの信頼を獲得し、持続的な市場拡大につながるだろう。
他方で過度な規制は、米国が持つAI分野での国際競争力を削ぐ懸念もある。
今後は、政府によるルール整備と並行して、業界全体で自主的な基準を策定する動きが一層重要になる。
子供の安全を守る枠組みを確立しつつも、技術革新を阻害しない制度設計が求められそうだ。
関連記事:チャットGPT、未成年利用に保護者管理機能 16歳自殺受け安全策を強化
https://plus-web3.com/media/latestnews_1000_5124/