フラッグシップの Android デバイスについて以前にこれを聞いたことがあるなら、ここで止めてください。Pixel 10 Pro に搭載された Google の新しい Pro-Res ズームは、レンズで詳細を捉えるのではなく、AI で詳細を作り出します。
2025年8月に発売されたPixel 10 Proは、光学5倍ズームレンズを搭載しています。さらに、AIを活用しています。Googleの「Pro-Res Zoom」は、拡散モデルを適用することで、センサーが記録できなかったディテールを再現します。
Googleは10倍、さらには100倍ズームを謳っているが、30倍を超えるとスマホはもはや現実を捉えられなくなり、AIの推測を吐き出すだけになってしまう。
ネット上では、Googleの最新スマートフォンに奇妙な現象が起きていることに人々が気づいている。作家のジョン・スカルジー氏は、「写真ではなく絵」と題した記事でその現象を指摘した。
GoogleのAI搭載写真技術は細かい文字を認識できない。画像クレジット:ジョン・スカルジ
これはAndroidとiOSのカメラの哲学の衝突を彷彿とさせます。Googleはハードウェアの性能不足をAIで補うことに抵抗がありませんが、Appleは実際には存在しないピクセルを偽造することに抵抗があります。
Googleのズームの仕組み
果物や壁のレンガのように被写体が単純な場合、AIは現実味のあるパターンを描き出します。しかし、看板の文字のように被写体が複雑な場合、その錯覚は崩れてしまいます。
左は自然なデジタルズーム、右はGoogle AIによる加工。画像クレジット:ジョン・スカルジ
Pixel 10 Proは、5倍までは光学ハードウェアに依存しています。Scalzi氏によると、それ以上の倍率ではセンサーに合わせてクロップし、30倍を超えるとAIを使ってアップスケールします。このプロセスは、拡大鏡というよりは、アートプログラムに近いものです。
このシステムは、小型センサーの限界を押し広げたナイトサイト機能や超解像ズームといったPixelの初期機能に端を発しています。Pro-Resズームは、その限界をさらに押し広げ、機能強化から革新へと進化を遂げています。
Appleは10年近くコンピュテーショナルフォトグラフィーに注力してきました。iPhone 7 Plusは2016年にポートレートモードを導入し、深度データとアルゴリズムを用いて背景をぼかしました。
Appleの写真に対するアプローチ
それ以降のすべてのiPhoneは、機械学習を用いて露出の合成、トーンのバランス調整、ノイズの平滑化を行ってきました。iPhone 16 Proもこのパターンを踏襲しています。
重要な違いは、Appleのアルゴリズムはカメラが実際に捉えたデータのみを扱うという点です。システムは空の色を調整したり、暗い場所での粒状感を軽減したりすることはありますが、元々撮影時に存在しなかったデータから新しいピクセルを作成することはありません。
Apple のアルゴリズムは、カメラが実際にキャプチャしたデータのみを処理します。
同社の指針は「リアリズムと正確さ」です。Appleの最も先進的なフォーマットであるProRAWでさえ、依然としてセンサーが捉えた画像に依存しています。
月の写真論争
2023年に発生したサムスンの「月の写真」スキャンダルでは、シーンオプティマイザーが月を認識し、データを適用してシャープ化していました。画像は合成画像であり、実写ではありませんでした。
GoogleのPro-Resズームも、日常的な被写体で同様の問題に直面しています。月とは異なり、道路標識や電線の形状を予測できるデータベースがないため、偽造画像が生成されてしまいます。
Appleは、ポートレートモードのシーンから得られる深度情報を利用することでこの問題を回避しています。これは操作を伴うものではありますが、捏造ではありません。
日常的なユーザーにとって、本物の写真とAIが生成した写真の違いは、信頼にかかっています。iPhone 17では、Appleは、元々存在しなかったディテールを新たに作り出すことなく、写真をより美しく見せる機能をさらに推し進めていくでしょう。
つまり、アルゴリズムがノイズを除去し、露出バランスを調整しても、撮影した写真は実際に見たものを反映し続けるということです。魔法のような100倍ズームは実現できないかもしれませんが、iPhoneで撮影した写真が現実を正確に映し出していると信頼できるということです。