最新のARKitデモでは、ハンドトラッキングによるビール・ポンや視覚化された音声軌跡が紹介されている[u]

最新のARKitデモでは、ハンドトラッキングによるビール・ポンや視覚化された音声軌跡が紹介されている[u]

ロジャー・フィンガスのプロフィール写真ロジャー・フィンガス

· 1分で読めます

AppleのARKitを使った新たなデモは、ハンドトラッキングの統合など、拡張現実プラットフォームの可能性を示唆しているかもしれない。[ModiFaceの情報を修正しました]

コンピュータービジョン企業マノモーションが制作したデモ「マノポン」では、カメラの前に片手を置き、平らな面に置かれた仮想のカップをフリックすることでビールポンをプレイできます。マノモーションによると、ARKitと3Dジェスチャー認識技術を組み合わせることで、追加のハードウェアなしでスワイプ、タップ、掴むなどの動作を認識できるとのことです。

アップデートされたManoMotion SDKは、今後数週間以内に利用可能になる予定です。この技術は当初はUnityベースのアプリに限定されますが、今後より広範なサポートが提供される予定です。

ModiFace社は、様々な髪色をシミュレートし、それをリアルタイムで人物画像に投影できる技術を展示しています。このプロジェクトは6年間の開発期間を経て実現したもので、様々なヘアスタイルに対応しています。

ARKitへの一風変わったアプローチの一つは、アーティストのザック・リーバーマンによるものです。彼は、空間に録音された音声を視覚化するコードを考案しました。音声の断片が残す軌跡に沿って移動するだけで、音声素材を前後に再生できます。

ARKitの商用利用はiOS 11の登場を待つ必要がありますが、iOS 11はAppleが9月12日に開催する新型iPhone発表記者会見の後、早ければ来週にもリリースされる可能性があります。AR対応カメラは「iPhone 8」の改良点の一つとなるはずです。

更新: ModiFace によると、同社のヘアカラー技術は実際には ARKit を使用していないとのことです。