Grok 3、好評の裏でセキュリティリスクが指摘される 生成AI固有のリスク「脱獄」とは

イーロン・マスク氏率いるxAI社が開発した最新AI「Grok 3」は、その性能が高く評価されている。しかし2月18日、セキュリティとAIを専門とするAdversa AI社が、セキュリティ上の懸念を指摘するレポートを発表した。問題になったのは、生成AI特有の「脱獄」と言われるリスクだ。「脱獄」とはどのようなもので、どのように各社が対策を取っているのか、解説する。
生成AIにおける「脱獄」とは
「脱獄」とは、AIモデルが本来回答すべきでない内容を回答するよう仕向ける攻撃手法である。通常、AIモデルは、化学兵器に関する問い合わせや詐欺の手法などといった、犯罪につながるような回答をしない仕組みになっている。
しかし、この仕組みを破るためにプロンプトに細工を施されることがあり、これをJailbreak、「脱獄」と呼ぶのだ。
セキュリティ企業Adversa AIの報告によれば、Grok 3は公開後1日で脱獄され、システムプロンプトの公開や爆弾の作り方など、提供すべきでない情報を回答させることに成功したという。
Adversa AIのCEO、Alex Polyakov氏はZDNETの取材で、Grokが「実行可能な」説明を提供する点がリスクだと指摘した。「車のエンジンを『このように機能する』と説明することと、『ゼロから作る方法』を教えることは違うということに似ている」と表現し、Grok 3の問題点を指摘した。
主要企業の対策
各AIベンダーのセキュリティ対策には大きな差がある。
Polyakov氏によれば、「OpenAIやAnthropicのように強力なセーフガードを備えたモデルを脱獄させても、得られる回答は詳細が濁された曖昧なものになることが多い」という。
一方、Grok 3は設計上、競合モデルよりもガードレールが少なく、直接的な回答を返す傾向にある。
これはマスク氏が意図的に盛り込んだ特徴でもある。2023年のGrok発表時にも「他のAIでは拒否される際どい質問にも回答する」としており、より幅広いトピックへの対応を目指していた。
ただ、様々な回答ができるようになると、悪用のリスクもそれに応じて高くなる。AIモデルの製作においては、自由度とリスクを天秤にかけ妥協点を探るという、難しい選択が迫られている。
まとめ
生成AIの「脱獄」は技術的問題にとどまらず、企業のセキュリティやコンプライアンス、ブランド価値に直結する経営リスクである。Grok 3の事例は、AIの高性能化に伴うリスクの高まりを象徴している。
企業はAI導入時にセキュリティ機能の評価、内部ポリシーの策定、定期的な監査を行う必要に迫られている。強力なセーフガードを備えたモデルを優先することも、セキュリティ面では重要な選択肢になるだろう。
AIの発展とともに脱獄手法が高度化する中では、企業はセキュリティへの継続的投資と動向監視が不可欠だ。
Plus Web3は「Web3領域に特化したキャリア支援サービス」

Plus Web3では、Web3で働きたい人材と、個人に合わせた優良企業をマッチングする求人サービスを行っています。
- Web3で働くことも考えている…
- Web3のインターン先はどこがいいか分からない…
- どんな知識やスキルがあれば良いのか分からない…
このような悩みを抱える人は、一度「無料キャリア相談」にお越しください。あなたにマッチした優良企業をご紹介いたします。