特許出願は、Appleが「ストリートビュー」マッピング技術に取り組んでいることを示唆している

特許出願は、Appleが「ストリートビュー」マッピング技術に取り組んでいることを示唆している

木曜日に発見されたアップルの特許出願は、同社が、グーグルマップで人気の「ストリートビュー」によく似た、パノラマ位置データに基づく仮想ナビゲーションシステムをモバイル機器に導入しようとしていることを示唆している。

米国特許商標庁が公開した Apple の「パノラマ画像ナビゲーションのための 3D 位置追跡」では、iPhone または iPad のオンボード センサーを活用してパノラマ画像をナビゲートするグラフィカル ユーザー インターフェイスについて説明しています。

出願書類によると、Appleの発明は、Googleのストリートビューのような既存の技術を改良したもので、ユーザーを「バブル」の中に閉じ込め、マウスやマルチタッチスクリーンなどの入力デバイスでのみ操作できる。例えば、従来のGUIでは、ユーザーは特定の交差点にあるパノラマの「バブル」に「ジャンプ」し、そのバブル内でパン操作を行って目的の方向に移動する必要がある。これは、外出中のモバイルデバイスユーザーにとって煩わしい操作だ。

Appleは、従来のアプローチに代わり、モバイルデバイスに搭載されたトラッキングサブシステムとオンボードセンサーを用いて、ユーザーの物理的な動きをパノラマナビゲーションUIに変換することを提案しています。以下の例では、加速度計、カメラ、ジャイロスコープ、その他のセンサーからのデータを用いて、仮想の街路レベルのパノラマ空間内でユーザーを「移動」させています。

まず、本発明は、ユーザーがまずストリートビューモードに入る必要があることを指摘しています。これは、地図上で「ピンチイン」するか、ドロップされたピンアイコンを選択することで行えます。ストリートビューモードに入ると、ユーザーはデバイスを上下左右に動かすことで、内蔵ストレージから提供されるか、携帯電話データネットワークを介してワイヤレスでストリーミングされるパノラマ画像を閲覧できます。移動は、デバイスを前後に動かすことで制御されます。

パノラマ画像の動き
情報オーバーレイ(103b)付きの元の位置(104)からのデバイスの遷移動作の図。

プロセス全体を通じて、オンボード センサーは線形および速度メトリックを含む移動データを収集し、その動きを GUI に変換します。

さらに、ファイリングノートの情報バブルを仮想環境上に表示し、建物や店舗などの興味のある場所を示すことができます。情報は「企業」などのレイヤーに保存され、ユーザーの好みに合わせて表示できます。一部の実施形態では、小さなデバイス画面での煩雑さを軽減するために、バブルを非表示にすることができます。

別の実装では、システムは画像センサーからの動きデータを「オプティカルフロー」と呼ばれるものに変換することができます。これは、パノラマ画像内の物体の動きのパターンを、観察者との関係で読み取ります。距離データをスケーリングすることで、デバイスは環境内におけるユーザーの適切な仮想位置を表示できます。

パノラマ画像の動き

特に興味深いアイデアの一つは、複数のディスプレイを使用してパノラマ画像の表示領域を拡大することです。デバイスはワイヤレスで通信し、仮想環境に関する情報を同時に表示できます。

最後に、申請書には、一部の実装において内部画像データの利用について言及されており、ユーザーはデバイスを使って建物内に「入っていく」ことができます。建物内では、「購入するオブジェクトを選択する」といった他の操作も実行できますが、その機能レベルに関する詳細は明らかにされていません。

AppleのiOSマップには現在、画像データがないため、ストリートビュー表示オプションがありません。この機能はGoogleの地図サービス「ストリートビュー」の取り組みによって利用可能になっていますが、iOS 6でマップアプリが導入された際に、一部のiOSデバイスユーザーから大きな期待を寄せられていました。

Apple がこの発明を将来の Maps に実装するかどうか、またいつ実装するかは不明だが、この申請書類からは、同社が少なくとも Google のソリューションの競合製品を積極的に調査していることがうかがえる。

Apple の特許申請は 2011 年 9 月に提出され、発明者として Patrick Piemonte 氏と Billy Chen 氏の名前が記載されています。