Sora 2、米俳優労組の抗議受けディープフェイク対策へ AI時代の「人格権」保護が前進

2025年10月20日(現地時間)、米映画俳優組合SAG-AFTRAはOpenAIなどと連携し、動画生成AI「Sora 2」における声や肖像の保護を目的とした協力に関して共同で声明を発表した。著名俳優の抗議を契機に、生成AIと人権保護の折り合いを探る動きが始まった。
SAG-AFTRAとOpenAIが協定 Sora 2に肖像保護ルールを導入
米国の映画俳優組合・米テレビ・ラジオ芸術家連盟(SAG-AFTRA)は10月20日(現地時間)、OpenAIらと共同で声明を発表し、動画生成AI「Sora 2」における音声と肖像の保護を強化する方針を示した。これは、AI技術の進化に伴う「無断再現」問題に対応する協定である。
背景には、俳優ブライアン・クランストン氏の報告があった。同氏はSora 2の招待制リリース時、自身の声や顔が同意なしで生成され得ることを懸念し、SAG-AFTRAに訴えた。これを受け、同組合はOpenAIに正式な申し入れを行い、協議を重ねた結果、今回の共同声明に至った。
OpenAIは、Sora 2が人物の肖像や声を再現する際、本人が明示的にオプトイン(許可)しない場合のガードレールを強化すること、さらに苦情への迅速な対応を約束した。
この取り組みは、無断のAI生成から個人を守る連邦法案「NO FAKES法(※)」の原則に基づくものとされる。
※NO FAKES法:2024年に米議会で提出された法案。AIによる人物の声や容姿の無断生成を禁止し、本人の同意を前提とした使用のみを認める内容で、デジタル時代の人格権を保護する狙いがある。
AI表現の自由と権利保護のせめぎ合い 業界標準化への課題も
今回の合意は、AIが創作の領域に深く踏み込む時代における重要な分岐点である。
俳優や声優などの表現者にとって、人格や声の再現は職業生命に直結する問題であり、Sora 2の対応は「権利保護の前進」として歓迎される事象と言える。
一方で、AIの創作表現を制限しすぎることで技術革新を妨げるとの懸念も残る。
OpenAIが目指す体制は、透明性と安全性の両立を目指す試みと言えるが、現場での実効性には課題が多いと見られる。AIが学習した膨大な映像・音声データの出所を完全に把握することは難しく、本人が気づかぬまま利用されるリスクは依然として存在する。
今後は、技術的なトレーサビリティ(追跡可能性)と、法的な人格権の明確化が不可欠になるだろう。
SAG-AFTRAとOpenAIらの協定は、他のAI開発企業や映像制作プラットフォームにも波及する可能性があり、AI生成物のルールづくりを巡る国際的な議論が加速する加速するだろう。
AIと人間の創作が共存する未来に向け、透明性と倫理をいかに制度化できるかが問われている。











