政府、生成AIの省庁活用に初の統一ガイドライン 要機密情報は原則対象外に

2025年5月27日、日本政府は、各省庁がChatGPTなどの生成AIを業務利用する際の統一的なルールを定めたガイドラインを初めて策定した。
安全保障に関わる機密情報の利用は明確に制限される方針で、今後の行政効率化に向けた一歩となる。
政府、生成AI活用に初の包括的ルールを提示
政府は27日、省庁が生成AIを調達・活用する際の方針をまとめた「生成AIの調達・利活用に係るガイドライン」を策定した。対象は、文章生成機能を持つAIで、現在一部の省庁では既に議事録の要約や資料作成、データ分析などで導入が進んでいる。
新ガイドラインでは、各省庁にAI統括責任者(CAIO※)の任命を義務付け、AI活用時のルール策定と省庁間での事例共有を求めている。
また、安全保障や外交などに関する「要機密情報」は、原則として生成AIでは扱わないと明記された。
平将明デジタル大臣は「リスク管理をきちんと行いつつ、政府におけるAI実装を強力に進めてまいります」と述べ、AI活用の本格化に意欲を示した。
※CAIO(Chief AI Officer):AIの導入・運用に関する責任を担う最高責任者。政策策定や人材育成、リスク管理などの役割を持つ。
行政効率化への期待と懸念 実装拡大に課題も
政府による生成AI活用の統一ガイドラインは、行政のデジタル変革を加速させる重要な布石となるだろう。今後は、各省庁での具体的な実装が進み、議事録の要約や文書作成など単純業務の自動化が拡大すると思われる。
一方で、課題も発生するだろう。
AI導入による業務効率化や人手不足の解消が期待される反面、情報漏洩リスクや責任所在の不明確さなどには懸念が残る。
特に「判断支援」と「自動処理」の境界が曖昧になることで、行政の透明性や説明責任に影響を与える可能性もある。今後は、AIの出力結果をどのようにチェック・管理するかが問われるだろう。
総じて、政府の試みが成功するか否かは、現場の理解と運用体制の整備にかかっているといえる。