OpenAI、AI悪用による生物兵器リスクに警鐘 専門家連携や対策強化を発表

米国時間2025年6月19日、米AI大手OpenAIは、AI技術の進化が生物兵器の開発を容易にする可能性があるとする警告を発表した。
OpenAIは今後、専門家・政府と連携し、アクセス制限や監視体制を強化するほか、7月には対策サミットも開催する予定だ。
OpenAI、生物兵器へのAI悪用リスクに対応強化 7月にサミット開催へ
OpenAIは、AIモデルの進化により、生物兵器の設計や開発といった用途に技術が悪用されるリスクが急速に高まっていると警告した。
特に、従来は専門知識が必要とされていたバイオ技術が、AIによって一般ユーザーにも再現可能になりつつある点を深刻に捉えている。
これに対しOpenAIは、多角的なリスク緩和策を講じている。
まず、生物学や安全保障の専門家と連携し、AIによる悪用の可能性を検証する「脅威モデル」の策定を進めているほか、リスク評価用のデータセットを構築し、レッドチーミング(※)による脆弱性の特定を行っているという。
技術面でも、生物兵器の開発や病原体の拡散に関わるリクエストに対しては、AIが回答を拒否する設計とし、またデュアルユース(軍民両用)に該当するような内容については、詳細な手順を出力しないよう制限を加えている。
さらに、疑わしい入力や行動はシステム側でリアルタイムに監視し、不審なアカウントに対しては即時停止や法執行機関への通報を行うとした。
また、2025年7月に「バイオディフェンス・サミット」を開催し、各国の政府・研究機関・企業と協力してAI技術と生物学的脅威の交差点に対する国際的な対応を協議する予定だ。
OpenAIは、AIモデルの安全性を確保することが「社会的責任」であると捉えており、ユーザーに対しても、AIを有害な目的で使用しないよう強く求めている。
※レッドチーミング:セキュリティや防衛の分野において、仮想的な攻撃者の視点でシステムの脆弱性を検証する訓練手法。AIやバイオテック領域にも応用されている。
AIの進化とバイオリスク管理 利便性と安全性の両立が課題に
AIが生物学的知見の民主化を進める中で、その利便性とリスクの両立は、技術提供者にとって最大の課題となりつつある。
特にバイオ分野では、1つの知識が医療にも兵器にも応用可能な「デュアルユース問題」が存在し、AIモデルがこのギャップを意図せず橋渡しするリスクが現実化してしまいつつある状況だ。
一方で、AIの活用によって新薬開発や疫病対策が飛躍的に加速するなど、正当なメリットがある点も無視できない。過剰な規制は、医療や環境保全分野における革新の阻害要因となる可能性がある。
今後は、企業側の自衛措置にとどまらず、各国政府や国際機関との連携が不可欠となるだろう。AIモデルの開発・運用に対する認証制度や、アクセス制御の標準化が求められており、OpenAIの提起した議題はその端緒といえる。
一方で、攻撃者は規制を回避する手段を常に模索するため、いたちごっこの様相となる危険性もはらんでいる。
総じて、「汎用性」「応用力の高さ」「悪用リスク」のバランスを取り、適切な対策を打ち立てられるかどうかが、今後の焦点になるだろう。