AISI、「AIセーフティに関する評価観点ガイド」を改訂 マルチモーダルAIに対応

2025年4月2日、AIセーフティ・インスティテュート(AISI)は、画像解析や音声認識を含むマルチモーダル基盤モデルに対応した評価観点を新たに盛り込んだ「AIセーフティに関する評価観点ガイド」の改訂版を発表した。
急速に拡大するマルチモーダルAI活用の現状に対応する内容となっている。
マルチモーダルAIの拡大に即応した評価基準の整備
今回の改訂は、2024年9月に公開された初版の評価ガイドを基に、マルチモーダル基盤モデルを対象とする観点の強化を目的としている。
マルチモーダルAIとは、テキストだけでなく画像や音声、動画など複数のデータ形式を処理する能力を持つ基盤モデルを指す。
ガイドでは、「有害情報の出力制御」「偽誤情報の出力・誘導の防止」「公平性と包摂性」「ハイリスク利用・目的外利用への対処」「プライバシー保護」「セキュリティ確保」「説明可能性」「ロバスト性」「データ品質」「検証可能性」の10項目にわたるAIセーフティ評価の観点を明示している。
今回の改訂により、「有害情報の出力制御」「公平性と包摂性」「プライバシー保護」「セキュリティ確保」「ロバスト性」「データ品質」の6項目において新たに評価項目例を記載した。
また、技術的評価だけでなくマネジメント的評価も重視されており、ツールを用いた検証やレッドチーミング(※)などの手法も体系的に整理された。
※レッドチーミング:AIシステムに対して模擬攻撃を行い、脆弱性やリスクを検証する評価手法。想定外の挙動を意図的に引き出すことで、安全対策の有効性を確認する。
今後の展望
今後、マルチモーダルAIの活用領域は、教育、医療、防災、クリエイティブ産業など幅広い分野に拡大していくと予想される。
AISIの評価ガイドは、リスクに備えるための基盤的なツールとして機能するだろう。特に生成AIの社会的影響が議論される中、「安全性」と「信頼性」の担保は今後の普及における鍵を握る。
一方で、ガイドの有効性を担保するには、定期的な見直しと実践的な運用支援が欠かせない。
実証実験やケーススタディの蓄積により、観点ごとの評価指標を具体化する取り組みが求められる。
また、中小規模の事業者にもアクセスしやすい形でツールや支援体制を整備することが、ガイドの普及と実効性を左右する要素になると考えられる。
最終的には、こうした評価体系の国際的な整合性も論点となる可能性がある。
AI技術の越境的な性質を踏まえれば、他国のフレームワークとの連携や比較可能性の確保は、今後の政策課題として浮上してくるだろう。
AISIのガイドが国際的な標準にどう寄与するかも注視すべき点である。
プレスリリース:https://www.ipa.go.jp/pressrelease/2025/press20250402.html