AppleのiPhoneベースの拡張現実ナビゲーションコンセプトには「X線視覚」機能がある

AppleのiPhoneベースの拡張現実ナビゲーションコンセプトには「X線視覚」機能がある

木曜日に公開された2件の特許出願によると、Appleは、壁を剥がす「X線ビジョン」モードなど、周囲の強化された仮想オーバーレイをユーザーに提供できるiOS向けの拡張現実システムを研究しているという。

Appleは米国特許商標庁に「Federated mobile device positioning」と「実際のモバイルデバイスの位置と環境モデル間の登録」という2つの出願を提出した。どちらもiPhoneのカメラ、オンボードセンサー、通信スイートを活用して豊富な位置データを重ね合わせたリアルタイムの世界の眺めを提供する高度な拡張現実ソリューションを説明している。

このシステムはまず、GPS、Wi-Fi信号強度、センサーデータなどの情報を用いてユーザーの位置を特定します。そして、アプリはそこから周囲の3次元モデルをダウンロードします。このモデルには、近くの建物や興味のある場所のワイヤーフレームと画像データが含まれています。しかし、このデジタル表現を現実世界と一致させることは、センサーだけでは困難です。

モデルを正確に配置するために、AppleはiPhoneのカメラから送られてくるライブ映像に仮想フレームを重ねて表示することを提案しています。ユーザーは、ピンチズーム、タップ&ドラッグなどのジェスチャーを使って画面上で3Dアセットを操作し、ライブ映像に合わせることができます。これにより、機械による計算だけでは不可能なレベルの精度が得られます。

あるいは、「左に移動」や「右に移動」といった音声コマンドを使って画像を合わせることもできます。ワイヤーフレームは、1点または複数の点が正しく位置合わせされると「ロック」され、拡張ビューの調整が行われます。

さらに別の実施形態では、ユーザーはライブビューエリアに手を入れて仮想画像の一部を「掴み」、特別なジェスチャーで位置を調整することで、ワイヤーモデルと直接インタラクションすることができます。この3つ目の方法では、ユーザーの手がカメラの真正面にある環境といつ、どのようにインタラクションしているかを判断するためのオブジェクト認識技術が必要です。

現在の iOS 7 マップによるニューヨーク市の上空飛行。

ユーザー入力に加えて、デバイスはピッチ、ヨー、ロール、その他の動きを補正し、ライブビューに関連付けられた空間内の位置を推定します。ロックが確立され、画像が調整されると、拡張現実プログラムは画面上のオーバーレイを介してユーザーに有用な位置データをストリーミングできます。

例えば、iPhoneユーザーが新しい場所へ旅行する場合、周囲の環境がよくわからないかもしれません。拡張現実アプリを起動すれば、近くの建物や道路の名前を読んだり、企業情報を入手したり、場合によっては壁を「めくって」特定の建物の内部を覗いたりできるようになります。

「X線ビジョン」機能については、建物内部の画像資産はオフサイトサーバーに保存されるという注記以外、どちらの文書にも詳細が明記されていません。しかし、写真と実物を適切に照合するには、豊富なデータを蓄積した膨大なデータベースが必要になると推測されます。

最後に、Apple は、自動ワイヤーフレーム配置のためのクラウドソーシングのキャリブレーション データと、現実世界のオブジェクトの固有の特徴やパターンを使用して仮想フレームを整列させるマーカー ベースの位置合わせ方法をメモします。

出典: USPTO

Appleが今月下旬に発表予定のiOS 8オペレーティングシステムにAR技術を組み込む計画があるという証拠は今のところありません。しかし、同社はマッピングを目的としたVR技術を複数保有しており、近い将来、この技術の一部が一般向けデバイスに搭載される可能性を示唆しています。

Apple の拡張現実の特許出願は 2013 年 3 月に初めて申請され、Christopher G. Nicholas、Lukas M. Marti、Rudolph van der Merwe、John Kassebaum が発明者として認められています。