パナソニックHD、一人称視点から動作を再構成・予測するAI「UniEgoMotion」を開発

2025年10月17日、パナソニックホールディングス株式会社とパナソニックR&Dカンパニー オブ アメリカは、スタンフォード大学と共同で、一人称視点映像や頭部軌道から動作を推定・生成できるAI技術「UniEgoMotion」を開発したと発表した。
本技術は、AI・Computer Vision分野の国際会議「ICCV2025」にも採択されている。
三人称情報に依存せず一人称視点から動作を高精度再構成
パナソニックHDとPRDCAは、一人称視点映像や頭部の軌跡から3D動作を高精度に再構成・予測するAI技術「UniEgoMotion」を共同開発した。
従来の手法では、三人称視点のシーン情報や3D点群などが必要だったが、同技術はそれらに依存せずに動作を生成できる点が特徴である。
技術の核となるのは、映像と頭部軌道から得られる限られた情報を用い、統合的に動作を再構成・予測する「モーション拡散モデル」である。
画像特徴抽出にはDINOv2(※)ベースのエンコーダを採用し、汎用性と精度の両立を実現した。
学習時に一部情報を意図的にマスキングすることで、「現在の動作推定」から「未来動作の予測」までを単一モデルで処理できる。
評価実験では、一人称視点映像からのポーズ再現精度や動作の自然さにおいて従来手法を上回る高い精度を達成した。
研究成果は、AIとComputer Vision分野で最も権威ある国際会議の一つであるIEEE/CVF International Conference on Computer Vision(ICCV)2025に採択されている。
※DINOv2=Meta AIが開発した自己教師あり学習モデル。高精度な画像特徴抽出が可能で、映像解析や生成分野で幅広く活用されている。
ウェアラブル活用の新地平 作業支援から医療まで応用拡大へ
UniEgoMotionは、ウェアラブルデバイスやスマートグラスなど一人称データを活用する分野に新たな展開をもたらす可能性がある。
作業現場での動作解析、リハビリやヘルスケア分野での動作モニタリングなど、応用範囲は広い。
特に、身体全体が映らない状況でも高精度に動作を再構成できる点は、現場作業支援や技能継承の効率化にも寄与するだろう。
一方で、デバイスの普及やプライバシー保護といった社会的課題にも対応が求められる。
パナソニックHDは今後、AIによる動作認識技術を社会実装へつなげ、生活・業務双方の利便性向上に貢献するとしている。
今後は、人の「動き」を理解するAIが、人と機械の新たな協働を支える基盤技術となる可能性がありそうだ。
関連記事:
2025年「パナソニック」がAIを積極活用し『進化』する方針












