2026年2月24日(現地時間)、米GoogleはAI音楽プラットフォーム「ProducerAI」を買収し、実験部門のGoogle Labsへ迎え入れたと発表した。単なる生成にとどまらず、AIを「制作のコラボレーションパートナー」として活用する体験への転換を打ち出している。
ProducerAIをGoogle Labsに迎え入れ
ProducerAIは、以前「Riffusion」の名称で展開されていた音楽生成サービスである。
自然言語で「lofiなビートを作って」といった指示をするだけで楽曲を生成でき、チャット形式で細かな修正を重ねながら仕上げていく“音楽エージェント”型の設計が特徴だ。
今回、ProducerAIには新たに、中核モデルとしてGoogle DeepMindが開発した最新音楽生成AI「Lyria 3」が採用された。
「Lyria 3」では、従来モデルよりもリズムや編曲構造への理解が深まっており、テンポ変更や歌詞タイミング指定などの精緻な制御が可能になっている。
すでにGeminiアプリの音楽生成機能にも搭載されているが、ProducerAIでは対話を通じた共同制作体験が前面に出されている。
さらに「Spaces」機能では、自然言語から楽器やエフェクトを設計できる。
ノードベースのモジュラー環境(※)にも対応しており、制作したミニアプリは共有やリミックスが可能だ。
単なる自動生成ではなく、創作プロセスそのものを拡張する設計となっている。
※モジュラー環境:音源やエフェクトを部品(ノード)単位で接続し、信号経路を構築する制作方式。柔軟な音作りや実験的な設計が可能となる。
創造拡張の利点と権利課題の行方
ProducerAIの統合は、音楽制作の民主化を加速させる可能性がある。
専門的な作曲知識がなくてもアイデアを即座に音源化しやすいと考えられるため、個人クリエイターやスタートアップの参入障壁は下がるだろう。
企業にとっても、広告音源やプロトタイプ制作の内製化が進みそうだ。
一方で、学習データに既存著作物が含まれる懸念を巡っては議論が発生するかもしれない。
生成物の権利帰属や収益分配の透明性が確立されなければ、法的リスクが顕在化する余地は残る。利便性の裏側に制度的整備の遅れがある点は看過できないはずだ。
もっとも、Googleはすでに「Music AI Sandbox」を通じ、アーティストとの協業姿勢を示している。これは創作者コミュニティとの対話を通じて社会的受容性を高めるための戦略的アプローチとも考えられる。
実際、ミュージシャンのWyclef Jean氏はLyria 3を活用する動画を公開し、AIを創造性を拡張するための楽器やツールとして活用すべきとの考えを提示している。
今後は、AIを代替者ではなく、協働基盤として定着させられるかどうかが焦点となるだろう。権利処理と技術進化の両立が実現すれば、音楽制作のワークフローは根本から再設計されるかもしれない。
関連記事:
Google、Geminiに音楽生成機能 Lyria 3で30秒楽曲を自動生成

OpenAI、音楽生成ツールを開発中 テキストと音声入力で作曲支援へ

