2026年3月12日、日本の総務省の有識者会議は、AI(人工知能)に関わる企業や自治体向けの統一指針「AI事業者ガイドライン」の改定案を取りまとめた。自律的に行動するAIサービスの普及を見据え、「人間の判断を介在させる仕組み」の構築を新たに求めた点が大きな特徴となる。
AIエージェント普及見据え人間関与を明記
今回の改定案では、AIの自律的な行動が社会に広がることを前提に、開発や提供時のリスク管理を強化した点が大きな柱となる。特に新たに盛り込まれたのが、「人間の判断を介在させる仕組み」の構築を求める規定である。
具体例としては、AIエージェント(※)が高額商品を購入する場合、決済前に利用者本人の同意を確認する仕組みなどが想定されている。また企業の重要な経営判断にAIが関与する場合でも、最終決定の前に経営者の確認を求める運用などが例示された。
さらに今回の改定では、政府として初めてAI関連用語の定義も明確化された。AIエージェントは「特定の目標を達成するために環境を感知し、自律的に行動するAIシステム」と定義された。
あわせてフィジカルAI(※)についても、「センサーなどを通じて情報を取り込み、目的達成のための最適策を自律的に判断し、物理的な行動につなげるシステム」と整理された。ロボットや自動化機器など、現実世界で動作するAIの広がりを踏まえた定義といえる。
セキュリティー面の留意事項も強化された。アカウントごとに付与する権限を必要最小限に設定することや、ハードウエアに残存するデータの取り扱いへの配慮などが求められている。
またリスクとして、AIエージェントの自律行動による誤発注やファイル削除などの意図しない操作、外部システムとの連携による内部情報の漏えい、接続先増加による攻撃対象の拡大、複雑な内部構造による制御の難しさなども具体的に示された。
※AIエージェント:特定の目標を達成するため、周囲の環境を認識しながら自律的に判断・行動するAIシステム。ソフトウエア操作や情報収集、意思決定補助などを自動で実行する技術を指す。
※フィジカルAI:センサーなどを通じて現実世界の情報を取得し、自律的な判断によってロボットや機械などの物理的な動作を行うAIシステム。自動運転や産業ロボットなどで活用が進む。
自律AI時代の安全設計 利便性と責任の両立
今回のガイドライン改定は、AIが単なる業務支援ツールから「自律的に行動する主体」へと進化しつつある現状を反映したものといえる。人間の判断を介在させる仕組みを明示したことで、AIの暴走や誤作動による被害を抑える効果が期待される。
特にフィジカルAIの分野では、安全確保の重要性が一層高まる可能性がある。ロボットや自動化機器が人と同じ空間で動作する場面が増えるなか、人間による最終確認や動作許可を設ける設計は、事故防止の基本的な枠組みとして機能すると考えられる。
一方で、人間の確認プロセスを過度に設ければ、AIの自律性や効率性が損なわれる可能性もある。どこまでをAIに任せ、どこからを人間が判断するのかという「責任の境界」をどう設計するかは、企業にとって重要な課題となるだろう。
生成AIの進化に伴い、AIエージェントは業務自動化や意思決定支援を担う技術として注目が高まっている。今回の指針は、日本企業がAIを安全に活用するための基盤となる一方、今後の国際的なAIルール形成にも影響を与える可能性がある。企業はガイドラインを踏まえ、自律AI時代に適した運用モデルの検討を進める必要があると考えられる。
AIネットワーク社会推進会議(第32回)・AIガバナンス検討会(第30回)合同会議
関連記事:
日立、AIエージェント標準化団体AAIFに参画 日本企業初の国際ルール形成へ

メタ、AIエージェント専用SNS「Moltbook」を買収 AIコミュニティ基盤を取り込み研究部門へ統合
