Apple の最新の視線検出研究により、将来ユーザーは視線だけでアプリやウェブサイトのテキスト入力フィールドを選択できるようになるかもしれない。
ウェブサイトが正しく記述されていれば、Safariなどのブラウザは異なる種類のテキスト入力フィールドを認識します。Safariは、あるフィールドには姓、別のフィールドにはメールアドレスを入力するなど、様々な方法でテキスト入力フィールドを提示します。
ただし、いずれの場合も、そのフィールドをクリックするか、タブで次のフィールドに移動しないと、現在位置が認識されません。今後は、そうする必要はなくなります。例えば「First Name」フィールドを見るだけで、少なくともカーソルがそこに移動して、テキストの入力が開始されるはずです。
「視線を使用してテキスト入力フィールドを選択する」は、現実世界と Apple AR の両方のデバイスに関係する、新たに公開された特許出願です。
このアプリケーションは、現実世界と AR デバイスを実質的に同じものとして扱います。
「これらの技術は、デスクトップパソコン、ノートパソコン、タブレット、スマートフォンなどのデバイスの従来のユーザーインターフェースに適用できます」と論文は述べています。「これらの技術は、仮想現実(VR)、拡張現実(AR)、複合現実(MR)のデバイスやアプリケーションにも有利です…」
しかし、いくつか重要な違いがあります。ARでは、「Apple Glass」などのヘッドセットが視線検出を行います。
ヘッドセット内、つまり目のすぐそばに設置されたセンサーでこれを実現します。現実世界のデバイスでは、iPhoneやiPadでより遠くから視線追跡を行う必要があります。
デバイスの視線検出システムの一部を示す特許の詳細
「[この場合]光線は、それぞれユーザーの左目と右目の視軸に沿ってキャスト(投影)され、オプションで、レイキャスティングと呼ばれる方法でユーザーの視線方向や視線の深さを決定するために使用されます」とAppleは述べています。
Appleがデバイスに常に視線をスキャンさせるように提案しているのかどうかは不明です。しかし、スキャンがいつ、どのように起動されたとしても、デバイスの目の特定の領域が探知され、「ユーザーの視線の方向や視線の深さ」も特定されます。
システムは「ユーザーの瞳孔の中心、または眼球の回転中心」を探すことで、「ユーザーの目の視軸」を特定できます。つまり、ユーザーがいつシステムを見ているかを認識し、画面に何が表示されているかを把握できるのです。
Appleは、システムがアクティベートされるまでに、ユーザーが一定時間待つ必要があると述べている。これは、Apple Storeを歩き回った時に、iPadが次々と注文情報を入力するような事態を避けるためだ。
この特許出願は、アール・M・オルソンを含む3名の発明者によって作成されています。オルソンはこれまでに、AR環境における仮想オブジェクトと現実の物理オブジェクトの相対的な位置を特定する研究を行ってきました。