Apple は、Apple Vision Pro をさらに使いやすくし、カスタマイズされたジェスチャーで制御できるようにする計画を立てています。
Zoom通話中に、ラジオDJのように喉の前でスライスするジェスチャーで自分の音声をミュートできると想像してみてください。あるいは、昔ながらの「電話して」という手振りをすれば、Apple Vision Proがあなたの連絡先情報を、あなたが見ている相手に送信してくれるかもしれません。
これが、Appleが新たに取得した特許「カスタムハンドジェスチャーを定義する方法とデバイス」の意味です。これは、Apple Vision Proのあらゆる機能に任意のジェスチャーを割り当てる方法であり、ヘッドセットのアクセシビリティ機能から生まれたものですが、幅広い用途が考えられます。
Apple Vision Proのデモでは、このヘッドセットはこれまでで最も使いやすいデバイスだとAppleは言うことがあります。短いデモであっても、例えば身体の動きに制限のある人でも使えるようにするためのオプションが用意されています。
「様々な実装において、電子機器はユーザーが行う事前定義されたハンドジェスチャーを検出し、それに応じて対応する機能を実行します」と特許には記載されています。「しかし、様々な実装において、ユーザーは事前に定義されたハンドジェスチャーを物理的に実行できない場合や、ハンドジェスチャーで別の機能を実行することを望む場合があります。」
これは、iPhoneの「バックタップ」のような機能がアクセシビリティ機能として導入されたにもかかわらず、非常に便利なため誰でも使えるようになるのと似ています。そして、「バックタップ」と同様に、この特許の説明は、ジェスチャーでショートカットを実行できることを示唆しています。
これですべてが開きます。ほんの少しのジェスチャーであらゆるショートカットを実行できるので、一連のオプションをトリガーできます。
特許はこれまで通り、技術がその後どのように使用されるかではなく、何かをどのように実行できるかに主眼を置いています。しかし、6,000語と48枚の図面を通して、これらの将来のジェスチャーがどのように検出され、タスクや機能に割り当てられるかが段階的に説明されています。
Apple Vision Proにジェスチャーを認識させるトレーニング
各ステップでは、Appleが「ジェスチャー関連付けツール」と呼ぶツールが使用され、まずユーザーがどの機能のジェスチャーを作成したいかを尋ねます。特許ではこの段階については明確にされていませんが、おそらくユーザーは機能またはショートカットを手動で選択する必要があると思われます。
また、既に使われているジェスチャーでない場合、Apple Vision Proはジェスチャーの名前を自動で教えてくれます。例えば、手のひらを合わせるジェスチャーですが、ツールは「ナマステ」と推測します。
ジェスチャーがまだ認識されていない場合、そのジェスチャーの名前を尋ねます。次に、ユーザーにジェスチャーを繰り返すように指示し、次に似たようなジェスチャーだが異なるジェスチャーを行うように指示します。
それ以降、新しいジェスチャーが認識され、関連付けられたタスクまたは機能が実行されます。Appleはジェスチャーを後から編集したり削除したりする方法については言及していませんが、おそらくそうした方法があり、すべてのカスタムジェスチャーを確認する方法も確実にあるはずです。
また、Apple の特許では、たとえば Apple Vision Pro が失礼なジェスチャーを認識しないかどうかについても言及されていない。
誰もが親切にしてくれることを願うこの特許は、トーマス・G・ソルター氏とリチャード・イグナティウス・プサル・ロザーダ氏の2人の発明によるものです。両名とも、拡張現実(AR)とグラフィカル環境に関する複数の特許を保有しています。