Apple、iPhone向けにモーションベースの3Dユーザーインターフェースを検討中

Apple、iPhone向けにモーションベースの3Dユーザーインターフェースを検討中

ニール・ヒューズのプロフィール写真ニール・ヒューズ

· 2分で読めます

Apple は、デバイスのタッチスクリーンへの依存を減らし、モーションコントロールによる 3D 環境の操作に重点を置いた iPhone 用の新しいユーザーインターフェイスの開発に興味を示している。

このコンセプトは、今週AppleInsiderが発見した「センサーベースのディスプレイ環境」と題された新しい特許出願で明らかにされました。この特許出願では、ジャイロスコープやコンパスなどの内蔵センサーから得られる方位データを用いてシステムを操作できる3次元ディスプレイ環境が説明されています。

Appleは、このアプリの中で、タッチスクリーンで3Dユーザーインターフェースを使用すると問題が発生する可能性があると指摘しています。このアプリでは、3Dとは従来のiPhoneの画面上のポリゴンを指しており、新しい特殊なディスプレイで左右の目に2つの異なる画像を送ることで3Dの「錯覚」を生み出すことではないと述べています。

「モバイルデバイスの一般的なディスプレイサイズは限られているため、3D GUIは指やスタイラスペンといった従来の手段では操作が難しい場合があります」と出願書類には記されている。「例えば、3D GUIの異なる視点を見るには、両手が必要になることがよくあります。片方の手でモバイルデバイスを持ち、もう片方の手でGUIを操作して新しい3D視点に切り替えなければならないのです。」

Appleは、オンボードセンサーからの方向データを用いて「3Dディスプレイ環境の透視投影」を決定することで、画面に触れる必要性を完全に排除できる可能性があります。この種のインタラクションの例としては、拡張現実(AR)アプリケーションや、iOSマップアプリでジャイロスコープを使ってGoogleストリートビューで場所を表示することが挙げられます。

しかし、Appleのコンセプトはこのアイデアをさらに推し進め、ユーザーが動きを使ってデバイスを操作できるようになる可能性もある。あるイラストでは、iPhoneのホーム画面に床、背面の壁、天井、側面の壁が描かれている。

ユーザーは、iPhoneのディスプレイを「仮想のカメラファインダー」と捉え、デジタルの世界を垣間見るように操作します。この仮想ファインダーを動かすことで、iPhoneの向きが画面に表示される内容を決定します。

ユーザーが仮想空間を見回すと、床、壁、天井、さらには背後にまで、様々なオブジェクトを配置できます。これらのオブジェクトを選択することで、ユーザーはデバイスを操作できるようになります。

出願書類には、ナビゲーションをより迅速にする「スナップ」機能についても言及されています。iPhoneを振るなど、事前に設定された操作を行うことで、3Dユーザーインターフェースの所定のカメラビューに自動的に「スナップ」できるようになります。

今週、米国特許商標庁によって公開されたこの発明案は、2010年7月に初めて出願された。発明者はパトリック・ピエモンテ氏とされている。