ニール・ヒューズ
· 2分で読めます
Appleは、高度なセンサーを使用してジェスチャー、動き、位置、ユーザーからの距離を検出し、近くでの物理的な入力から遠くからのジェスチャーコントロールに簡単に移行できるようにする新しい入力方法に引き続き関心を示しています。
ユーザーがデバイスから離れると、特定のユーザー インターフェイス要素が拡大したり、簡素化されたり、消えたりすることがあります。
同社が追求するユーザーセンサーを備えた高度にインタラクティブなコンピュータシステムの詳細は、米国特許商標庁が木曜日に公開した特許継続出願に記載されています。「コンピュータユーザーインターフェースシステムおよび方法」と題されたこの特許は、ユーザーの存在から室内での位置情報、そしてユーザーが行うあらゆるジェスチャーまで、あらゆる情報を測定できるセンサーについて説明しています。
おそらく最も興味深いのは、申請書類の中で、人がデバイスにどれだけ近いかに基づいてシステムのユーザーインターフェースを変更する「ユーザー近接コンテキスト」について言及されている点だ。
Appleの特許出願に記載されているシステムは、ユーザーが近くからでも遠くからでもデバイスを簡単に読み取り、操作することを可能にし、ユーザーの距離に応じて動的に適応します。
出願書類には、「コンピュータに表示される情報の外観は、ユーザーの近接状況に基づいて変更または制御される可能性があります」と記載されています。「例えば、コンピュータに表示される情報のサイズや内容が変更または制御される可能性があります。」
このシステムでは、テキストサイズを含むディスプレイ上の要素が、ユーザーと画面の距離に応じて自動的に拡大または縮小されます。また、ユーザーインターフェースは、ユーザーがデバイスに対してどこにいるかに応じて適応し、変化します。
Appleが示した別の例では、ユーザーがデバイスから離れると、デバイスがマウスによる入力操作をハンドジェスチャーに自動的に切り替えるというものです。また、Appleが示した別の状況では、デバイスがユーザーとの距離に応じて画面の明るさを上げ、遠くからでもディスプレイを見やすくするといった例も挙げられています。
Appleのコンセプトは、昨年のモバイルOSアップグレードiOS 7で導入された「視差効果」の、より進化したインタラクティブなバージョンと言えるでしょう。この機能は、iPhoneやiPadのモーションセンサーを利用して背景の壁紙を動かし、ユーザーにデバイスが仮想の3次元世界への一種の「窓」であるかのような錯覚を与えます。
Appleの申請で提示されたコンセプトは全く新しいものではないが、Appleが将来のデバイスに3次元入力とインタラクション機能を提供することに関心を持っている可能性を示唆している。ヘッドトラッキング、モーションジェスチャー、ユーザー識別機能は、既に市場に出回っている多くの製品に搭載されており、中でもMicrosoftのXboxゲームプラットフォーム向けKinectが有名だ。
今週公開された出願は、2013年8月に米国特許商標庁に提出されたもので、2008年の出願の続きです。発明者は、Aleksandar Pance氏、David R. Falkenberg氏、およびJason M. Medeiros氏です。