Google DeepMind、汎用ロボットAI「Gemini Robotics 1.5」発表 複雑作業に自律対応

2025年9月25日、英Google DeepMindは新モデル「Gemini Robotics 1.5」と「Gemini Robotics-ER 1.5」を発表した。
実際にロボットを動かす「Gemini Robotics 1.5」とタスクの流れを設計する「Gemini Robotics-ER 1.5」によって、自律的に遂行できるロボットの実現を推進する。
DeepMind、新モデルでロボットに高度な思考と行動を実装
Google DeepMindが発表した「Gemini Robotics 1.5」は、視覚・言語・動作を統合するビジョン・ランゲージ・アクション(※)モデルだ。
従来の単純な命令処理型ロボットとは異なり、行動前に推論を行い、そのプロセスを自然言語で説明する機能を備える。対話形式で指令を下すことが可能だ。
併せて公開された「Gemini Robotics-ER 1.5」は、物理環境を理解し複数の行動計画を立てる役割を担う。
デジタルツールをネイティブに呼び出すことも可能で、空間認識ベンチマークでは最先端の精度を記録した。
両モデルは高次の計画と具体的動作を分担し、複雑な現実世界の課題を協調して解決する仕組みを構築する。
さらにRobotics 1.5は、異なるロボット間で動作学習を転移できる「クロスエンボディメント学習」に対応。
これにより、一機種で習得した技能を他機種へと応用でき、産業応用における導入効率を高める可能性がある。
DeepMindは安全性確保にも注力している。独自の「ASIMOVベンチマーク」をアップグレードし、リスク認識や衝突回避を含む多層的な安全設計を行った。
発表資料では、本技術を「物理世界におけるAGI実現へのマイルストーン」と位置づけている。
※ビジョン・ランゲージ・アクション(VLA):画像や映像などの視覚情報と言語指示を統合し、実際の動作に変換するAIモデルの仕組み。
汎用ロボットの普及がもたらす利益と課題
Gemini Roboticsシリーズの進化は、物流や製造、家庭支援といった分野に大きな波及効果を与えると考えられる。
複雑なタスクを自律処理できれば、省人化や効率化が加速し、ロボット導入コストも下がる可能性がある。特にクロスエンボディメント学習は、これまで個別最適化に依存していたロボティクス分野において、新たなアプローチとして評価できる。
一方で懸念もある。高度な自律性を持つAIは、実社会での安全性や人間との協働に関するリスクを抱える。
誰が最終的に責任を負うのかというガバナンスの問題は避けられず、技術進展と同時に規制や倫理枠組みの整備が求められる。
今後は研究者や開発者コミュニティによる検証を経て、実環境での適用が進むとみられる。
商業化が進展するほど社会的議論も激化する可能性が高く、利便性とリスクの均衡をどう図るかが焦点となるだろう。











