MetaのAIスマートグラスで「手書き入力」対応 ニューラルバンド連携をCES 2026で発表

米Metaは、AIスマートグラス「Meta Ray-Ban Display」において、指の動きを用いた手書き入力機能を提供開始するとCES 2026で発表した。
筋電を検知するリストバンド型デバイス「Meta Neural Band」との連携により実現するもので、米国発の新機能として公開された。
Meta、手書き入力機能をCES 2026で正式発表
2026年1月6日、Metaは、米ラスベガスで開催中のCES 2026において、AIスマートグラス「Meta Ray-Ban Display」で指による手書き入力が可能になる新機能を発表した。
あわせて、筋電(EMG)(※)を検知するリストバンド型デバイス「Meta Neural Band」との連携によって実現することを明らかにしている。
この手書き入力機能は、机の上や自分の脚の上など、平面上で指を動かすことで文字を入力できる仕組みとなる。
入力された文字は、スマートグラス経由でメッセージとして送信でき、音声入力以外の操作手段として位置付けられている。
同機能は現在、早期アクセスとして段階的に提供が開始されている。
対応言語は英語のみで、利用可能なアプリは「Messenger」および「WhatsApp」に限られる。
またMetaは同時に、原稿を表示できるテレプロンプター機能の追加や、内蔵地図アプリを使った徒歩ナビ機能の提供エリア拡大も発表した。徒歩ナビは米国内32都市に対応する。
一方で、Ray-Ban Displayは在庫不足と長い待機リストを理由に、現時点では米国外での提供が停止されている。
※筋電(EMG):筋肉が動く際に発生する微弱な電気信号。センサーで検知し、指や手の動きをデジタル操作として解釈する技術で、ニューラルインターフェースの一種とされる。
Meta手書き入力対応が示す操作多様化
今回Metaが発表したAIスマートグラスの手書き入力対応は、音声中心だった操作体系に新たな選択肢を加える動きだと捉えられる。
指の動きを検知するニューラルバンドと連携することで、平面上で文字を書くという直感的な操作が可能になり、周囲の環境や利用シーンに左右されにくい入力手段を提示している点は利点と言える。
一方で、対応言語が英語に限られ、利用できるアプリもMessengerとWhatsAppに限定されている現状では、実用範囲はまだ狭い。
また、早期アクセス段階であることから、操作精度や学習コストがどの程度かは利用者側で見極める必要があるだろう。
テレプロンプター機能や徒歩ナビ機能の拡充も同時に進めていることから、メタがスマートグラスを情報閲覧と操作の中核に据える姿勢が窺える。
今後、提供地域や対応言語が拡大すれば、音声とジェスチャーを補完する入力手段として定着する可能性がある一方、米国外での供給停止が続く場合、普及時期は不透明になると考えられる。
関連記事:
Meta、AIグラス新カテゴリ「Meta Ray-Ban Display」発表 EMGリストバンドで“触れずに操作”












