アドビ、「Adobe Firefly」の動画生成モデルを大幅強化 テキストから効果音生成も可能に

2025年7月18日、米Adobeは「Adobe Firefly Video Model」をアップデートしたと発表した。新たにテキストや音声からの効果音生成機能を追加し、対応する外部AIモデルの拡充も進めている。
テキストや音声から効果音を生成、商用利用にも対応
Adobeが提供する「Adobe Firefly Video Model」は、「Adobe Firefly」の動画生成モデルであり、今回のアップデートにより表現力と柔軟性が飛躍的に向上した。
中でも注目されるのが、テキストや音声をもとに効果音を生成できる機能だ。ユーザーはテキストプロンプトでの指示に加え、自身の声をもとに効果音を生成でき、声の抑揚によって音のタイミングや強さも自在に調整できる。
これらの機能はすべてベータ版として提供され、商用利用にも対応している。
また、FireflyボードにLuma AIの「Ray2」「Pika 2.2」を、動画生成に「Veo 3」(Audioを含む)を導入。近日中にTopaz Labs「Image」「Video Upscalers」、Moonvalley「Marey」もFireflyボードで利用可能になる予定である。
現時点でFireflyボードで利用可能なLuma AI「Ray2」「Pika 2.2」については、まもなく動画生成機能にも追加されるという。
さらに、構成参照機能が動画にも対応。ユーザーがアップロードした動画の構図をもとに、AIが類似の構成で新たな動画を生成することができる。
視覚スタイルについても、プリセットからワンクリックで適用可能となり、制作工程の簡略化が図られている。
そのほか、初期および終了フレームを指定して、キーフレームに基づく映像生成を行う新機能も導入された。
映像制作の自動化が進展 クリエイター支援と商業利用への影響
今回のアップデートは、映像制作におけるAI活用を一層加速させるものと見られる。特に、テキストや音声からの効果音生成は、プロの音響編集に頼らずとも短時間で高品質な演出が可能になる点で、映像制作者にとって大きなメリットがある。
構図の自動参照やスタイルプリセット機能の拡充は、映像編集に不慣れなユーザーでも直感的に操作できる環境を提供し、生成AIの民主化を推し進める要素といえる。
また、Luma AIやTopaz Labsなど多様なサードパーティーモデルを統合することで、用途や表現手法に応じた柔軟な選択肢が広がる。
一方で、表現の均質化や著作権リスクといった懸念も残る。ベータ版機能の商用利用が可能であるとはいえ、生成された効果音や映像に関する権利処理が不明確な場合、後のトラブルに発展する可能性があるため、導入に際しては注意が必要だ。
今後は、Fireflyを軸としたAdobe製品群との統合がさらに深まることで、Premiere ProやAfter Effectsとの連携を通じた高度な制作フローも期待される。
生成AIによる動画制作の「標準化」が進む中で、クリエイティブ領域における人とAIの役割分担も新たな段階に入ったと言えるだろう。