WWDC 2025で発表されるvisionOS 3は、Apple Vision Proソフトウェアの年間アップデートサイクルがどのようなものになるかを示す最初の機会となります。このプラットフォームへの期待をいくつかご紹介します。
より軽量で安価なApple Vision Proを求める声はありますが、Appleはソフトウェアアップデートでそれを提供することはできません。プラットフォームの強化に役立つ、使い勝手を向上させるアップデートは数多くあります。
Apple Vision Proは2024年2月に発売された際、Appleのプラットフォームのあるべき姿を示すvisionOS 1.0を搭載していました。Appleのエンジニアだけでなく、多くのユーザーに数ヶ月間使用された結果、ベータテストでは特定されなかった多くの問題に対処することができました。
WWDC 2024のわずか数か月後にリリースされたvisionOS 2では、コントロールセンター、音量、その他の設定にアクセスする新しい方法が導入されました。以前は、必要なコントロールにアクセスしようとすると、文字通りうんざりするような操作でした。
今後の変更の多くは、AppleがApple Vision Proをどのように捉え、ラインナップの中でどの程度の重要性を持っているかに左右されます。AppleはApple Intelligenceの立ち上げとエコシステム全体の再設計に注力しているため、visionOSは2025年には後退する可能性があります。
WWDC 2025 で visionOS 3 に期待していることは次のとおりです。
より多くのネイティブApple製アプリ
この要望リストの中で最も基本的で明白な項目は、ネイティブアプリの増加です。AppleはiPadの発売以来、対応アプリをネイティブVisionOSアプリに移行していません。ただし、いくつかの新しいネイティブアプリが導入されています。
このスクリーンショットはvisionOS 1.0で撮影されたもので、何も変わっていません。
以下のアプリは引き続き iPad 互換モードで動作します:
- クロック
- カレンダー
- リマインダー
- ポッドキャスト
- ショートカット
- フォトメーター
- 家
- ニュース
- 地図
- 数字
- ページ
- 本
- 株式
- ボイスメモ
これらのアプリのほとんどを日常的に使っていることを考えると、かなり長いリストです。Appleが特定のアプリの見た目や動作について良い例を示してくれなければ、多くの開発者がそれに倣うことはないでしょう。
visionOSの公開開発は1年目を迎えましたが、Appleは発売前から社内で数ヶ月間開発に取り組んできました。Apple Vision Proが初めて発表されたのは2年前の6月です。ですから、たとえ最低限のデザインとサポートが備わっていたとしても、Appleのアプリが全てネイティブ対応していないというのは、到底許されることではありません。
時計、カレンダー、リマインダー、そしてホームは、オブジェクト、ウィンドウ、そしてスペースといったあらゆるインタラクションをサポートするアプリにとって、優れた選択肢と言えるでしょう。ショートカットは、ユーザーがインタラクションのアンカーとして独自のUSDZファイルを選択できるようにすることで、さらに進化する可能性があります。
例えば、青い小さなポケモン、ソブルのアニメーションのUSDZファイルがあるのですが、このオブジェクトにショートカットを割り当てられたら面白いと思います。クリップボードの操作に関連するショートカットをいくつでもタップして実行したり、YouTubeでポケモンのエピソードをランダムに再生したりできるようになります。
Sobbleは、visionOSのどこにでも配置できる小さなフィギュアとして3Dでアニメーションします。
Appleはこれらのアプリで多くのことを実現できるはずです。机の上に物理的な本を置いてタップするだけでBooksアプリの参考資料が起動したり、リマインダーを小さな付箋として表示してアプリのウィンドウやオブジェクトに貼り付けたり、仮想サーモスタットを表示して壁に設定したり。
そこで、Apple Vision Pro の次のアイデアである没入型環境についてお話しします。
新しい没入型環境とコントロール
Appleの没入型環境が大好きです。ビーチ、崖っぷち、巨大な山の下など、どんな場所でも瞬時に作業できます。
新しい没入型環境は素晴らしいが、サードパーティのアクセスはさらに素晴らしい
とはいえ、Appleはこうした空間についていくつか考えるべき点があると思います。Appleは明らかに、没入型環境をアプリの外で実現できる形でサードパーティに開放する必要があるのです。
ユーザーが独自の空間をデザインしてアップロードできるようになれば面白いでしょう。Appleやサードパーティが没入型空間デザイナーを開発し、ユーザーがそれを保存して使えるようにする、といったことも可能かもしれません。今の壁紙の仕組みを考えてみてください。
これについて言及する適切な場所がないので、ここに書いておきます。Appleは、サードパーティ製キーボードを環境間で渡して予測入力バーを固定するために、その検出機能のサポートを切実に必要としています。もしかしたら、私の次のアイデアが役に立つかもしれません。
これは私以外には魅力的ではないかもしれませんし、Appleが計画しているApple Vision Proの活用方法も全く考慮されていないかもしれません。とはいえ、こうした仮想環境で作業していて最初に感じた少し奇妙さの一つは、机や物理的な表面がないことです。
「ジョブシミュレーター」は没入型環境を作るべきではないだろう
キュービクル環境が必要だと言っているわけではありませんが、一種のギャグとして反対するつもりはありません。ただ、空間に固定面を追加するという選択肢があれば嬉しいです。
例えば、私のオフィスには机が3つあり、Apple Vision Proはそれらの位置と背後の壁の位置を認識していることがわかっています。私が提案しているのは、実際の机と全く同じ位置に仮想の机を配置し、そこに3Dオブジェクトやアンカーウィンドウを配置できるようにすることです。
Appleのネイティブアプリに関する私のアイデアを振り返ってみましょう。もしApple Booksで仮想の本を机の上に置けるとしたら、右手を見るとその本が常に机に固定されていて、それを選択するとBooksウィンドウが開いて参考資料のページが表示されます。
デスクトップ サーフェスには、Clocks アプリ用の物理的な時計や、特定のメモを開く仮想メモ帳などの他のオブジェクトを配置できます。さらに一歩進んで、仮想カレンダーをデスク カレンダーに固定することもできます。
表面はテーブルだけに限定される必要はありません。Appleは、ユーザーが仮想空間に壁を設置できるようにすべきです。左を見ると、カレンダーオブジェクトやその他のウィジェットを配置できる仮想の壁が見える、そんな状況を想像してみてください。
Appleは没入モードとオブジェクトのパススルーに取り組む必要がある
ビデオゲーム「シムズ」の壁の扱い方と少し似ていると思います。空間をデザインしたり、壁を立てたり、隠したり。その効果によって、まるで砂浜に直接いるのではなく、部屋の机に向かって床から天井まで届く窓からボラボラ島を眺めているような感覚を味わえるかもしれません。
少しスキュモーフィックすぎるかもしれませんが、空間コンピューティングの考え方はまさにこれのようです。いつか、これらすべてをメガネを通して見ることができるようになることを想像してみてください。物理的なオブジェクトのアンカーとオブジェクトのデジタル表現がすべて機能するようになるのです。
それで、私の次のアイデアに移ります。
窓やオブジェクトの恒久的な固定
Appleは、セッション間でウィンドウの位置を記憶するApple Vision Proの機能を改良しました。ただし、常に完璧というわけではなく、デジタルクラウンを長押ししてウィンドウの中心位置を合わせると、混乱が生じる可能性があります。
Microsoft HoloLensには、現実世界のオブジェクトにピン留めされたオブジェクトやウィンドウの初期の例がありました。
物理的な物体を使って、ある種の恒久的なアンカーを設置する方法が必要です。そこでAppleのAirTag 2テクノロジーが役立つ可能性がありますが、現時点ではiPhoneやiPadがその役割を果たせるでしょう。
iPhoneのUシリーズチップを利用してアンカーポイントを設定するアンカーリセットモードをユーザーに提供します。これにより、デスクのMagSafeスタンドに設置したiPhoneの設定に基づいてグローバルアンカーを設定し、常に問題なく周囲の空間に配置することができます。
GPSと高精度位置情報を組み合わせて固定された固定アンカーポイントがあれば、記憶と自動化の可能性が高まります。例えば、iPhoneのアンカーポイントを確認し、ショートカットをタップすると作業モードになり、すべてのウィンドウがアンカーの周囲のプリセット位置に開きます。
アンカー位置もフォーカスモードの一部として保存できます。また、異なるアンカーを使用することで、異なるオートメーションを発生させることもできます。
例えば、iPhoneが寝室のMagSafeマウントに取り付けられている場合、固定ウィンドウ設定を実行する際に、自動化の一環としてiPhoneの位置を確認するように設定できます。そうすれば、寝室ではなくオフィスでワークフォーカスに切り替えると、ウィンドウの位置が自動的に調整されます。
物理的なアンカーポイントを用いた自動制御のウィンドウ表示は、様々な可能性を切り開く可能性があります。AppleがvisionOSでUWBの利用を積極的に進めれば、ユーザーが家の中を動き回るのに合わせて仮想ウィンドウがパッシブに開閉するようになるかもしれません。
デジタル機器が普及するにつれて、これは面白いものになると思います。壁にバーチャルディスプレイを固定したり、家中の植物に植物の育て方の説明を貼ったり、扇風機や照明などのホームコントロールを機器に固定したり。
可能性は無限です。
Mac仮想ディスプレイのアップデート
より現実的な概念に戻ると、AppleはMacの仮想ディスプレイで興味深い取り組みを行う可能性があります。超ワイドディスプレイ設定はシステムにとって素晴らしいアップグレードですが、まだまだ改善の余地はあります。
仮想デスクトップからの無料macOSアプリ
AppleInsider Podcastの有料「+」セクションのリスナーなら、私がこの件について少し触れたことを聞いたことがあるでしょう。Appleは、ユーザーがアプリを仮想環境からドラッグして、visionOS内で自由に移動できるアプリとして扱えるようにする可能性があります。
もちろん、UIはマウスによる精密なポインティングに大きく依存するでしょうが、視線トラッキングについては後ほど説明します。この機能をより分かりやすくするヒントがもう一つあります。
AppleがすべてのOSを再設計し、VisionOSに着想を得たより統一感のあるデザインにする予定だという噂があります。macOS 16にとってそれが何を意味するにせよ、VisionOS環境におけるアプリの動作改善に役立つ可能性があります。
VisionOSがどれほど強力になり、Appleのスマートグラスがどれほど人気になったとしても、Macは生き残るだろうと私は信じています。Apple Vision Pro、特にスマートグラスが、プロレベルのあらゆるタスクに対応できるほど強力になると期待する理由はありません。
では、Macの仮想環境を実行し、プログラムを空間コンピューティング空間に取り込めたらどうなるでしょうか。Xcode、Final Cut Pro、その他のアプリを、ほぼ無限大のディスプレイに接続されたマウスで操作できるようになります。
visionOSのインターフェースはiPhone、iPad、Macのインターフェースとは大きく異なります
おそらく、Mac の仮想アプリ ウィンドウでは UI が調整され、見た目やピンチによる操作がさらに容易になるでしょう。
これは、両方のエコシステムを強化する賢明な中間ステップだと私は信じています。プラットフォームが対応できない、あるいは対応すべきでないパラダイムを無理やり押し付けるのではなく、既に最適化されているハードウェアと連携させるべきです。
iPadでも同じような間違いが見受けられました。iPadがMacをどう強化できるかという議論よりも、Macに取って代わるかどうかという議論があまりにも多すぎました。
iPadとApple Vision Proがコンピューティングの未来を体現しているからといって、それらが唯一のコンピューティングエンドポイントである必要はありません。Apple製品は、互いに連携することで最高のパフォーマンスを発揮します。
以前も申し上げたのですが、Apple Vision Proは高価な製品であり、この価格では頻繁にアップグレードするべきではありません。ですから、M2 Vision Proを補完するためにM4 Macが導入されるのであれば、それはまさにエコシステムの強みと言えるでしょう。
視線追跡の改善
Apple Vision Proの体験の中核を成すのは、視線追跡技術です。iPadOSの大きくて粘着性のあるカーソルや、macOSのスリムで正確なポインタと比較すると、視線追跡技術は最も精度が低く、エラーが発生しやすいと言えます。
目で正確に選択するには近すぎる小さな要素がたくさんある
visionOSでは、選択範囲をどれだけ注視しても、必ず上や下、あるいは隣接するアプリをタップしてしまうという問題があります。カーソルにはある程度の特定性と制御性が必要であり、人間の目だけでは不十分なようです。
私はコーディングエンジニアではありませんが、きっと解決策はあるはずです。一つの案としては、Windowsと同じスクロールジェスチャーを使って、視線を移動し、タップしてホールドし、選択ポイント間をスクロールする機能です。タップを離すと選択できます。
解決策が何であれ、Apple Vision Proでは操作が衝突しすぎます。アプリのボタンがウィンドウの調整と衝突し、調整バーを操作しようとして誤ってウィンドウを閉じてしまうことが多々あります。
この問題は、Safariや互換性のあるiPadアプリなどのウェブ上では特に悪化します。Apple Vision Proが主要なインタラクションツールとして想定されていない場所では、この問題が頻繁に発生します。
Apple は何らかの解決策、あるいは少なくともソフトウェアのアップグレードとアルゴリズムによるより正確な視線追跡を実現するだろうと私は予想している。
その他の可能性のあるアップデート
最後に、もう2つの明白な選択肢を挙げてこのウィッシュリストを締めくくりたいと思います。まず、AppleはPersonaの開発に再び取り組む必要があります。
ペルソナは、ティム・チャテンと私がこの方法でポッドキャストを録音した最初の実行以来、あまり改善されていません。
少し違和感があるペルソナは不気味の谷にかなり入り込んでいるので、解決策がわかりません。Appleはペルソナをもっとリアルでアニメーション化するか、Memojiに近いものに戻すかのどちらかでしょう。
個人的には、Memoji をペルソナとして使用するオプションがあれば嬉しいです。
いずれにせよ、スキャンした顔の特徴を重ね合わせるというのは間違ったやり方です。Appleは、顔の深度マッピングではなく、そのデータを使って特徴に基づいたアバターを作成すべきです。
ビデオゲームはずっと以前からこれを正しく理解していました。中には、スライダーを事前に調整するために原始的な写真認識技術を採用したゲームもありました。Apple Vision Proの3Dカメラとスキャナーははるかに先進的で、より優れたソリューションを簡単に実現できるでしょう。
ここでの私の推奨は、髪の毛、肌、衣服の細部をピクサー風に仕上げつつ、アバターがCall of Duty のカットシーンのように見えるほどには仕上げないことです。
アバターを型ではなく3Dで表現することで、より高度なカスタマイズが可能になります。ユーザーは服装や髪型を選べるだけでなく、目の色や肌の色を変えて幻想的な雰囲気を演出することも可能です。
ええ、ペルソナは完全なビデオゲームになるべきです。オフィス環境にはもっとプロフェッショナルな人間のようなデフォルト設定を、あるいはApple Vision Proではなく ダンジョンズ&ドラゴンズのカスタムアバターを使うべきです。
Apple Vision Proはゲームに物理コントローラーが必要
ビデオゲームといえば、AppleはApple Vision Proにサードパーティ製コントローラーのサポートを導入する必要があります。PlayStation VR2コントローラーについては、Appleとソニーの流通面での調整が必要になるかもしれませんが、これは当然の機能です。
Appleはコントローラーメーカーと提携し、特注のApple Vision Proコントローラーを設計すべきです。Surreal Touchの人たちは素晴らしいパートナーになるかもしれませんし、買収される可能性もあります。
ゲームといえば、開発者用ストラップを接続するデータ コネクタがすでに存在します。Valve Index のように、3D ゲームを PC または Mac から Apple Vision Pro に渡すためにこれを使用できない理由はまったくありません。
Appleさん、WWDCで新しいストラップを出荷してください。より大きなVRプラットフォーム、つまりPCとの互換性を高めるためにも、ぜひ使ってください。
Apple Vision Proはよくできたハードウェアですが、完璧というわけではありません。ソフトウェアとオペレーティングシステムは独立して開発することはできないため、VisionOSの完成にはまだまだ長い年月がかかるでしょう。
WWDC 2025 で visionOS 3 によるサプライズが発表されることを期待しています。