クオ氏:iPhone XがTrueDepthで先行した後、Androidデバイスは代替の3Dセンシング技術に頼ることになる

クオ氏:iPhone XがTrueDepthで先行した後、Androidデバイスは代替の3Dセンシング技術に頼ることになる

マイキー・キャンベルのプロフィール写真マイキー・キャンベル

· 2分で読めます

KGIのアナリスト、ミンチー・クオ氏によると、Androidデバイスメーカーは、AppleのTrueDepth 3Dセンシングカメラに追いつくために、飛行時間技術を使用した同様のコンポーネントの組み込みを検討しているが、最初のモデルは2019年まで登場しないと予想されている。

AppleInsiderが入手した投資家向けメモの中で、クオ氏は中国メーカーのファーウェイが2019年に3Dセンシング機能を搭載したスマートフォンモデルを発売すると予測している。

クオ氏によると、同社はまず、AppleのiPhone X向けTrueDepthカメラシステムに搭載されているような構造化光ソリューションから始めるが、来年の第2四半期または第3四半期までに、より安価で小型の飛行時間型センサーに移行する予定だ。TOFセンサー搭載モデルは、量産開始後3~6ヶ月以内に、構造化光技術搭載モデルに取って代わる可能性がある。

他の Android デバイスメーカーも Huawei に倣い、ToF テクノロジーを使用した独自の顔認識カメラ システムを構築する可能性があります。

「BOM の利点により、生産歩留まりと認識品質が大きな問題にならない限り、ToF が Android 陣営の主流の顔認識ソリューションになると考えています」と Kuo 氏は書いています。

Appleは昨年、iPhone Xの発売により、深度センサーカメラ技術を採用した最初の大手スマートフォンメーカーとなりました。TrueDepthと呼ばれるAppleの専用カメラシステムは、ドットプロジェクター、投光イルミネーター、赤外線カメラ、カラーカメラ、そして高度な学習アルゴリズムを統合し、Face IDと呼ばれる顔認識ソリューションを実現しています。

TrueDepthは、ユーザーの顔を正確にマッピングするために、赤外線スペクトルで動作する垂直共振器面発光レーザー(VCSEL)モジュールを用いて、3万個のドットを既知のパターンで投影します。得られた画像、特にパターンの偏差は赤外線カメラで撮影され、2D画像情報と組み合わせられ、安全な参照データと比較されます。

ToF ソリューションは、パターン化された光の画像をキャプチャするのではなく、レーザーパルスまたは変調されたレーザー光が物体の表面で反射するまでの時間を計算することで深度マップを生成します。

量産化の進捗状況では先行しているものの、クオ氏は、業界全体でToFシステムへの流れが進む中で、構造化光技術は「過渡的なソリューション」になる可能性があると考えている。AppleがTrueDepthの将来的なバージョンでToFを採用するかどうかは不明だが、昨年の噂では、同社が2019年に発売される可能性のあるiPhone用背面3Dセンサーにこの技術を組み込むことを検討しているとのことだ。

クオ氏の予測は、3Dセンシングの軍拡競争が激化する中で、AppleがAndroid陣営に対し2年先行していると予測したレポートの直後に発表された。VCSELモジュールと光学フィルターのサプライヤーは、2019年までは普及に必要な生産レベルに達する見込みは低いと述べている。

一方、アップルはiPhone Xの部品供給を独占し、2017年に主要メーカーのフィニサーと独占契約を結び、競争で大きな優位に立つことを約束した。

Huawei のような企業が構造化光から ToF に移行したとしても、入手困難な VCSEL アレイなど、2 つの技術が多くのコンポーネントを共有しているため、供給は引き続き制約を受けることになります。