イタリア、包括的的AI規制法を承認 違法利用の罰則や子供の利用制限を明記

2025年9月17日、イタリア議会は人工知能(AI)を規制する新法を承認した。
欧州連合(EU)のAI規制法に準拠した域内初の立法であり、違法行為への罰則や未成年の利用制限などを盛り込んだ。
AI規制で欧州初の包括法 未成年利用に保護者同意
イタリア議会が可決した新法は、AIの利用に関する横断的なルールを初めて包括的に定めたものだ。
医療、労働、行政、司法、教育、スポーツといった幅広い分野を対象とし、AIによる意思決定には追跡可能性と人間による監督を必須とする。
特に14歳未満がAIを利用する場合には保護者の同意を条件とし、子供の権利保護を重視する姿勢が明確になった。
新法の執行機関には、デジタル庁と国家サイバーセキュリティー庁が指定され、金融分野ではイタリア中央銀行や市場監督当局Consobが監督権限を保持する。
さらに、ディープフェイクなどAI生成コンテンツを悪用して被害を与えた場合には1〜5年の禁錮刑を科すなど、刑事罰を伴う強力な規制が盛り込まれている。
詐欺など違法利用に対しても罰則強化が図られた。
著作権については、AIが補助的に生成した作品でも人間の知的努力の結果であれば著作権を認めると明記された。
医療分野では診断や治療にAIを活用できるが、最終判断は医師が行い、患者には説明を受ける権利が保障される。
労働現場においては、AI導入の際に従業員への通知を義務化するなど、透明性を高める規定も含まれている。
規制で透明性向上も イノベーション抑制の懸念残す
今回の立法は、EUで制定されているAI規制法に対応したものとなっている。
透明性や説明責任を強化することで、市民の安心感を高めると同時に、ディープフェイクや詐欺といったリスクの抑制につながることが期待される。
特に子供や患者といった弱い立場にある人々の権利保護を重視したことは、社会的な信頼を得るうえで重要な意義を持つだろう。
一方で、厳格な規制がAI開発のスピードや企業の競争力を阻害する可能性も指摘される。
企業にとっては新技術導入のハードルが高まることになり、スタートアップや中小企業が不利になる懸念も残る。
今後は、欧州委員会が進めるAI規制法との整合性を確保しつつ、産業界との対話を通じて柔軟な運用が求められる。
透明性と安全性を優先しながらも、イノベーションを阻害しない制度設計ができるかどうかが、域内競争力の維持に直結すると言える。