米Qualcommは11月16日(米国時間)、米ハワイ州マウイ島で開催された「Snapdragon Summit 2022」でARグラスに特化した専用プロセッサ「Snapdragon AR2 Gen 1」を発表した。

 もともと同社は2018年5月に米カリフォルニア州サンタクララで開催されたAugmented World Expo(AWE)において「Snapdragon XR1 Platform」を発表し、いわゆる「XR(eXtended Reality)」で表現される「Virtual Reality(VR)」や「Augmented Reality(AR)」向けのデバイスOEM市場へと参入しており、翌2019年には5G対応も行った「XR2 5G」を市場投入している。

 このXR2 5Gは、「Meta Quest 2」や「PICO4」に採用され、後にMetaからリリースされた「Quest Pro」においてはXR2の改良版にあたる「XR2+ Gen 1」が搭載されている。現在、VRの世界をけん引する主要エンジンとしてSnapdragon XRシリーズは機能しつつあるが、今回新たに登場した「AR2 Gen 1」はAR“グラス特化”をうたった新系統の製品だ。Qualcommは、なぜこのような形で製品ラインを分割したのだろうか。

●スタンドアロン型ではなく、スマホなどと連携するローカルホスト型を採用

 前述のVRデバイス製品群の他、Microsoftが「Mixed Reality(MR)」をうたう「HoloLens」など、昨今よく利用されているHMD(Head Mounted Display)の人気製品では「スタンドアロン型」が多い印象を受ける。初期のVR HMDが画像処理やアプリケーションの動作にPCなどの外部デバイスを必要としていたのに対し、HMD内にアプリケーションプロセッサ(AP)やGPUを内蔵し、外部接続なしで単独動作可能なため、ケーブル接続や外部デバイスの準備など、事前に煩雑な手順を必要としない点で扱いやすいからだ。可搬性にも優れるため、スマートフォン向けに準じた性能を持つ前述のSnapdragon XRシリーズのようなSoCの登場は、この流れを加速させたように思う。

 一方で、「One size fits all.」ではないというのも、実際の市場ニーズを鑑みての判断となる。スタンドアロン型はデバイスとしては“リッチ”だが、機能を詰め込むために高価になりがちであり、単独動作させるために想定駆動時間に応じたバッテリーをデバイス内に搭載しなければいけない。そのため、サイズや重量は大きくなりがちであり、結果として装着の手間や個々人の利用に合わせたデバイスの調整など、取り回しの問題が出てくる。

 屋内や固定拠点での利用を前提にした没入型のアプリケーションであれば問題ないのかもしれないが、Qualcommが「Smart Glass」と呼ぶサングラス型の“ライト”な用途のデバイスには、やや重いといえる。ARの定義はさまざまあるが、例えば視界に映る景色に情報を付与したり、キャラクターやウィンドウなどを重ねたりといった具合に、完全なバーチャルワールドというよりは、自動車や航空機のインフォメーションディスプレイとして機能するHUD(Head Up Display)のような仕組みをパーソナル用途でも活用できるよう提供されるのが「AR2 Gen 1」となる。

 なぜ「AR1」ではなくて「AR2」なのか。「プレミアムティア向けの製品ラインの名称をSnapdragon XRと合わせただけ」ということが理由のようだが、AR2の特徴として「完全AR特化」という点が挙げられ、想定するデバイスはQualcommがレファレンスとして用意しているとみられる「AR2 Development Platform」のようなシンプルなサングラス型のデバイスだ。

 AR2は「AR Processor」「AR Co-Processor」「Connectivity」をつかさどる3つのチップの集合体から成り立っており、これをサングラス型のデバイス内に適切に配置することによって機能する。メインの「AR Processor」のサイズが指先程度、「AR Co-Processor」がそれよりさらに2まわりほど小さい。役割としては、AR Co-Processorがカメラやアイトラッキングなどセンサー関連の情報のハブとして機能しつつ、AR Processorがハンドトラッキングなど入力情報の処理や画像出力などを担当、必要なデータをConnectivity経由で母艦となる「ローカルホスト」とやりとりする。

 アプリケーションの実体はローカルホストとなるスマートフォンなどのデバイス上で動作しており、AR2が搭載されるスマートグラスではセンサーで各種情報を収集しつつ、グラス上に表示させる情報を受け取るのが一連の処理の流れとなる。つまり、AR2ではスタンドアロン型での利用を想定せず、一緒に携帯するスマートフォンのようなデバイスとの無線連動を前提としたローカルホスト型の運用形態を取る。遅延のない連携を実現するため、Connectivityの部分では最新のWi-Fi 7接続に対応し、AR ProcessorではHexagonプロセッサの機能を利用してAIによる遅延補正を行うなどの最適化が図られている。

 AR2では可能な限り高性能な動作が期待できる機能を盛り込みつつ、1ワット以下の動作電力という低消費電力動作を目指している。結果としてアプリケーションプロセッサを外に出すローカルホスト型の動作形態となったが、デバイスの設計自由度は大きく上昇した。デバイスのサンプルとしてはQualcommの「AR2 Development Platform」が紹介されているが、これはあくまでミニマムの構成例だ。バッテリーを多めに内蔵したHMD型のデバイスにする、あるいはケーブルで外部電源供給を可能にして駆動時間を重視した構成にするのもいいだろう。

 米Qualcomm TechnologiesのXR製品マネジメント担当バイスプレジデントのHugo Swart氏は「最低駆動時間などの仕様はQualcommでは規定しておらず、OEMの裁量で自由にデバイスを構成することを想定している」と述べており、AR2があくまでデバイス開発の自由度を高めるための製品ラインアップである点を強調する。将来的にローカルホスト型のような接続形態が下火になる可能性はあるが、「スマートグラス+スマートフォン」が各デバイスOEMをまたいで障害なく利用できるために重要となるのが「Snapdragon Spaces」となる。

●サードパーティーの市場参入を容易にする「Snapdragon Spaces」

 Snapdragon Spacesは、2021年11月に「Snapdragon Spaces XR Developer Platform」の名称で開発キットのアナウンスが行われ、2022年6月に一般提供が開始された。KhronosのOpenXRをベースに開発されたもので、クロスプラットフォームでAR対応アプリやコンテンツの動作が保証される仕組みだ。

 もともと明確な標準のない世界ではあったが、共通プラットフォームとして仕組みを共有することで、サードパーティーの市場参入が容易になり、デバイスOEMもこの市場をターゲットにした商品を投入しやすくなる。そして何より重要なのが、ローカルホスト型のスマートグラスにおいて「Snapdragon Spaces-ready」のブランディングが行われることで、このラベルが付与された機器同士であればスマートフォンとスマートグラスを自由に組み合わせてSnapdragon Spaces対応のアプリやコンテンツを楽しめること。ユーザーとメーカーの両者にとって分かりやすい仕組みだ。

 コンテンツやサービスの互換性の例としては、Nianticが発表した「Lightship VPS(Visual Positioning System)」と「Snapdragon Spaces XR Developer Platform」の連携が分かりやすい。Lightship VPSはもともと2018年に「Niantic Real World Platform」の名称で発表されたもので、後にLightshipに改名された。IngressやPokemon Goを見れば分かるように、Nianticはもともとリアル世界と仮想空間を結び付ける位置情報データを保持しており、これを使ってのオブジェクトマッピングやコンテンツ共有をプラットフォーム化したのがLightship VPSとなる。

 簡単にいえば、ARを通じてピカチュウのようなキャラクターを現実世界に投影しつつ、そのキャラクターを複数のユーザーがLightship VPSを通じて同時に見ることができる仕組みだ。完全にデータの同期されたARのマルチプレイヤーゲームなども実現できるわけで、バーチャルワールドとはまた違った楽しみ方ができる。

 Snapdragon SummitではNianticが「Outdoor AR Headset」と呼んでいるデバイスのイメージ画像の他、この仕組みを活用したゲームのデモプレイ画像が公開されており、2023年には実際にLightshipとSnapdragon Spacesが連携を開始することで、Lightship上で動作するアプリやサービスがSnapdragon Spaces-readyデバイスでも利用可能になるとみられ、よりARの世界が身近になると考えられる。

(取材協力:クアルコムジャパン)