マルコム・オーウェン
· 2分で読めます
iPhone 13のカメラシステムのエンジニアリングに携わったAppleの副社長数名へのインタビューが公開され、2021年リリースに向けた改良の背後にある決定についてより深い洞察が得られました。
月曜日に公開されたStalman Podcastの「iPhone 13:カメラエンジニアとの対談」エピソードには、Appleの代表者3名が登場します。このグループは、ワールドワイドiPhone製品マーケティング担当バイスプレジデントのKaiann Drance氏を筆頭に、カメラソフトウェアエンジニアリング担当バイスプレジデントのJon McCormack氏、そしてカメラハードウェアエンジニアリング担当バイスプレジデントのGraham Townsend氏で構成されています。
iPhone 13では、センサーシフト式光学手ブレ補正(OIS)に加え、低照度撮影、写真スタイル、シネマティックモードの改良が行われました。Proモデルでは、新しいマクロモードとProResビデオのサポートが追加されました。
30分のポッドキャストは、タウンゼント氏がAppleがカメラのハードウェアを設計することの利点について語るところから始まります。ハードウェアチームがソフトウェアチームと「設計の初期段階から」緊密に連携できる点もその一つです。レンズ、センサー、その他のハードウェアは、デバイスの「ファームウェアとソフトウェア処理を補完するように特別に設計」されています。
「フォトンからJPEGまで、スタック全体を自社で管理しているため、パイプラインの最適な位置を選択して、具体的なメリットを実現できます」とタウンゼント氏は付け加えます。例えば、センサーシフトは1秒間の動画を安定させるのに十分なパワフルさを備えており、ソフトウェアチームが拡張できる生の正確な画像データを提供します。
iPhone 13 Proの新しいマクロ機能は、Appleが採用しているオートフォーカスシステムによって部分的に実現されているとタウンゼント氏は認めた。そうでなければ、マクロ機能なしでは「専用のマクロカメラを使うことになる」。「私たちにとって、同じカメラを2つの別個だが何らかの形で関連した用途に使えるほど効率的ではないのです」
マコーマック氏によると、機械学習は大きく進歩しており、特にA15が現在提供する処理能力の高さが顕著です。「これはiPhoneの処理能力の高さを物語っています。実際、私たちは今、非常に高い処理能力を備えているため、コンピュテーショナルフォトグラフィー技術をビデオの世界に導入し、コンピュテーショナルビデオグラフィーを実現できるのです。」
「実際、静止画で学んだのと同じ機械学習の魔法を、動画にも応用しているんです」とマコーマック氏は語る。iPhoneは「各フレームをリアルタイムで分割し、空、肌、葉を個別に処理します。これにより、すでに業界をリードする動画が、画像のさまざまな部分に鮮明さとディテールを加えることで、さらに優れたものになります」