ソニーは、本日11月30日、モバイルモーショントラッカー「mocopi」に関するマスコミ向け説明会を開催。一般販売に先駆けて、製品の実物やデモンストレーションが披露された。

「mocopi」は、直販サイト「ソニーストア」にて2023年1月下旬の発売を予定する、同社初のメタバース関連製品。価格は税込49,500円。直径3.2cm、質量8gの加速度、角速度(ジャイロ)センサーを備えた6基のデバイスを、付属のバンドを用いて頭・手足・腰に装着。専用スマートフォンアプリと連携することで、気軽に自分の動きをモーションデータ化できるというもの。

商品の説明に当たり、同社新規ビジネス・技術開発本部 モーション事業推進室室長・相見猛氏が登壇。本製品の開発背景やビジョンを語った。

製品開発の背景として、近年盛り上がりを見せるメタバース市場でのアバターを介したコミュニケーション、コンテンツクリエーションに着目。トップクラスYouTuberと同程度、或いはそれ以上のフォロワーや収益を上げるVTuberの存在や、VR空間内でアバターを使って様々な表現やコミュニケーションをしていく流れの中で、ソニーとしてできることをトライしていきたい想いがカタチになったものだと説明した。

製品名であるmocopiの由来である“モーションを簡単にコピーする”が言い表している通り、本製品のコンセプトは「3DコンテンツやVRに対して高度な機材や専門的な知識が必要という先入観を無くし、スマートフォンで写真や動画を撮影するような気軽さで3Dコンテンツを楽しんでもらうこと」ともっと身近な世界であることを訴えた。

今後訪れるであろうメタバースの時代に「せっかくもう一つの世界に入るのであれば、制限された動きでは無く、自分自身が思った通りに動く楽しさを提供できれば」と力を込めた。

製品を発売するに当たり、直近のターゲットとして、VTuberや3Dアニメーション製作者といったコンテンツクリエーション層、VR Chatでのフルトラッキング用途などのアーリーアダプター層を想定。フルボディトラッキングをすでに体験しているユーザーへの新たなアプローチとなるが、目標として、こうした領域に興味を示しつつも難しく捉えていたエントリー層の拡大を狙う。

製品の開発にあたっては様々なVTuberからフィードバックを得たとのことで、歩を進めた表現に興味を持つVTuberや今後VTuberとしてデビューをしたい層も手厚くサポートしていきたいと意気込みを示した。

本製品は、mp4フォーマットによる動画データの撮影、BVH形式によるモーションデータの書き出し、リアルタイム送信に、スマートフォンアプリを介して対応する。PCレスでのボディキャプチャーを実現したことが大きなポイントとなる。その一方、クリエイター層に訴求する上で、直接PCにデータを送る仕様を取らなかったことについて「方向性としてワークステーションに制限されるところを大きく取り払いたかった」と説明した。

スタジオを予約して撮影するこれまでのモーションキャプチャー撮影のパブリックイメージに対し、各センサーとスマートフォンのBluetooth通信が届く範囲内であれば場所を問わず、撮影技術そのものを場所の制約から開放することで、「ユーザーの敷居を下げるとともに、コンテンツ製作における制限を失くしたい」とその意図を明らかにした。

発売タイミングでの動作確認サービスとして、VR Chat、Unity、MotionBuilder、国内VTuber御用達のソフトとして著名なVirtual Motion Captureをサポート。今後はメタバース向けサービスや3D開発ソフト製作者へ向けたSDK(Software Development Kit)の配布を通じて、mocopiでキャプチャーしたモーションデータを広く活用してもらいたいとアピールした。

実演ではmocopiを身に着けた説明員によるパフォーマンスを披露。各センサーは付属のバンドにマグネットとバンドに設けられたツメによるロックで固定。取り外しの際もバンド側のツメを押さない限り外れない仕組みとなっており、手足を振り回すような動きをしてもセンサーだけが飛んで行ってしまう心配は無さそうだ。

初回立ち上げ時のみ、6基のセンサーとスマートフォンのペアリングが必要となる。以降はアプリ起動時に身長設定(現段階では140cm〜190cmに対応)とセンサーの位置や基準点を合わせるキャリブレーションを行うことでモーションキャプチャーを行うことができる。

キャリブレーションも非常にシンプルで、基本姿勢を取った後、読み込み完了のサウンドがスマートフォンから鳴ったら一歩踏み出し、そのまま止まるといった30秒にも満たないもの。キャリブレーションが終わるとシームレスで装着者の動きがアプリ上で再現される。

スマートフォンでの処理は、センサーを装着した頭・両手・両足・腰の加速度とジャイロの6軸方向のデータを、人間の体に再構築する機械学習処理を実行。肘や膝などセンサーを着けていない関節系の動きは、センサーで得たデータを基としたアルゴリズムによってモーションを作成。その際の計算処理もスマートフォン側で行われる。

アプリ側でマイクのオン/オフ切り替えを行うことで、動画書き出し時の音声収録も可能。こちらも入力音声に対応したアルゴリズム処理により、アバターデータの口の動き(リップシンク)に反映される。

アプリ画面上のモーションデータは非常に精緻だ。身体の6箇所に500円サイズのセンサーを装着するだけで、ダンスのような激しい動きをしても、スマートフォン上の画面のアバターがオンタイムで連動して同じ動きをするのはちょっとした驚きだ。

なお、mocopiが苦手な動きとしては、加速度センサーが認識しない非常にゆっくりとした動作。また、地面に足がついていることをある程度認識したアルゴリズム処理を行っていることから「自転車に乗る」「ブランコを漕ぐ」といった足が地面からずっと離れる動きはキャプチャーできないとしている。

スマートフォンで6基のBluetoothデバイスを接続しながら様々な機械学習処理を行うため、現段階の対応機種は、Xperia 5Ⅳ/Xperia 1Ⅳ/Xperia 5Ⅲ/Xperia 1Ⅲ/Xperia 5Ⅱ/Xperia 1Ⅱ、iOS端末ではiPhone 12以降のモデルをサポート。なるべく多くのユーザーにmocopiに触れてもらうために、今後、動作デバイスの範囲拡大に努めていく。

説明会会場ではVirtual Motion Capture上にリアルタイムでモーションデータを伝送するデモンストレーションや、Meta Quest 2とmocopiを用いたVR Chat内でのフルトラッキングデモンストレーションを実施。

Meta Quest 2との接続については、スマートフォンとMeta Quest 2を同一Wi-Fiネットワークで接続した状況でmocopiアプリ側にMeta Quest 2のIPアドレスを入力。Meta Quest 2側でVR Chatを起動し、モーションキャプチャーの入力を受付けすることでPCレスでのフルトラッキングを行うことができる。