ZOZO研究所、AI判断の「説明可能性」に新潮流 国際会議で採択された革新的手法

2025年5月26日、ZOZO研究所と千葉工業大学によるAIの説明手法に関する共同研究の論文が、人工知能分野の権威ある国際会議「IJCAI 2025」で採択されたと発表された。
提案された「C2FA」は、AIの予測理由を一貫して説明可能にする新技術である。
AIの説明手法「C2FA」が国際会議で高評価
ZOZO研究所と千葉工業大学の研究チームは、AIの予測根拠を明確に説明する新たな手法「C2FA(Consistent Two-level Feature Attribution)」を発表し、国際会議「IJCAI 2025」で論文として正式に採択された。
近年、AIの活用が進む中で、その「判断理由」を説明可能にする技術、いわゆるXAI(Explainable AI)の重要性が高まっている。
特に、複数のデータ単位をまとめて処理する「マルチインスタンス学習」では、結果に寄与した要素や特徴の特定が難しいとされてきた。
具体的には、結果に影響を与えた要素(HiFAs)と、その中で重視された特徴(LoFAs)が別々に推定されるため、計算負荷が高い上に、両者の整合性に欠けることが課題だった。
これに対してC2FAは、HiFAsとLoFAsを同時に推定し、説明結果の一貫性を保てるよう設計されている。
既存の「LIME」や「Kernel SHAP」などの手法を基盤に、数理最適化と「交互方向乗数法(ADMM)」を用いることで、計算効率と精度を両立できる。
画像分類タスクを用いた実験では、従来手法よりも少ない試行回数で正確な説明が得られ、視覚的な整合性も確認されたという。
説明可能性の革新がもたらすAI活用の可能性
今回のC2FAの発表は、単なるアルゴリズムの改良にとどまらず、XAI分野における信頼性向上という大きな波及効果をもたらす可能性がある。
AIが判断根拠を誤って提示するリスクが減ることで、医療診断や自動運転といった高リスク領域でも、安心して導入できる基盤が整うと考えられるからだ。
また、C2FAは汎用性にも優れている。
研究チームによれば、画像分類だけでなく、点群処理や自然言語処理といった多様な分野への展開も視野に入れているという。
ZOZO研究所では、今後ファッション関連のビジュアルデータ解析への応用も見込んでいるとのことだ。
さらに同手法は、一貫した説明が得られるという点で、企業がAIを導入する際の透明性確保にも寄与できると考えられる。これにより、社内外のステークホルダーへの説明責任が果たしやすくなり、導入ハードルの低下につながる可能性がある。
とはいえ、最適化問題の設計や実装の難易度は依然として高いため、導入には一定の専門知識が求められるだろう。
もし今後、実装の簡易化やオープンソース化が進められれば、より広範な企業・開発者への普及が期待できるのではないだろうか。