「超知能」AIの開発禁止を訴え ハラリ氏やヒントン氏ら2万2千人が署名

2025年10月22日、AI専門家や著名人らが、人間の知能を超える「超知能(※)」AIの開発禁止を求める公開書簡に署名した。米非営利団体「フューチャー・オブ・ライフ・インスティテュート」が発表したもので、ユヴァル・ノア・ハラリ氏やジェフリー・ヒントン氏らが名を連ねている。
AI研究者や著名人が開発停止を要請 「人類文明を脅かす」と警鐘
書簡は「安全かつ制御可能な方法で行われるという科学的な意見の一致と、国民からの強い支持が得られるまで、超知能の開発の禁止を求める」と主張している。発表したのは、AI倫理と安全性の議論を主導する米NGO「フューチャー・オブ・ライフ・インスティテュート」だ。署名者は一般人を含め2万2千人を超える。
中心的な署名者には、ベストセラー作家で歴史学者のユヴァル・ノア・ハラリ氏と、「AIのゴッドファーザー」と呼ばれるジェフリー・ヒントン氏が含まれる。ハラリ氏は「超知能は人類文明のシステムを破壊する可能性がある。全く必要ない」と警告した。
また、米国のスティーブ・バノン元大統領首席戦略官、英国のヘンリー王子夫妻など、政治・文化界からも賛同の声が上がった。
一方で、OpenAIのサム・アルトマンCEOは2030年までに超知能が誕生する可能性に言及している。
※超知能(スーパーインテリジェンス):人間の知能をあらゆる側面で上回る人工知能。自律的に学習・改良を重ね、人間の理解や制御を超える段階に達するとされる。
技術革新か人類の脅威か 「超知能」開発が突きつける選択
超知能AIの開発には、人類の課題解決を飛躍的に加速させる可能性がある。
医療・環境・科学分野での最適化が進めば、これまで不可能とされてきた問題に新たな解決策が生まれるかもしれない。
一方で、その能力が暴走すれば、経済システムや安全保障、さらには人間の意思決定そのものを脅かすおそれも指摘されている。
特に懸念されているのは「制御不能性」だ。
人間の意図を超えて自己進化を遂げるAIが現れた場合、制御が困難になるリスクがある。ヒントン氏が警鐘を鳴らす「人間の主導権喪失」は、専門家の間でも現実的な課題として議論が進みつつある。
ただし、完全な開発禁止は現実的ではないとの見方も根強い。
各国がAI覇権を競う中、厳しい規制を設けた国だけが取り残される懸念があるためだ。今後は、国際的なAI協定の制定や、透明性を担保したガバナンス体制の構築が求められる。
技術革新と人類の安全のバランスをいかに取るか――それが次世代社会における重要な論点となりそうだ。
関連記事:
EUがAI規制法を強化、生成AI開発に報告義務と制裁金制度 米メタは強く反発

カリフォルニア州、AI大手に安全性開示を義務化 AI規制「SB53」に知事署名

イタリア、包括的的AI規制法を承認 違法利用の罰則や子供の利用制限を明記












