在偷跑差不多半年后,iPhone 12系列终于正式发布,针对iPhone 12的其他卖点,我们会推出一系列不同的文章为大家做出解答,而今天这篇文章,我们就来讲讲iPhone 12的相机。
现在的Android手机动不动就是超大传感器或者潜望式多倍变焦,再不济也有一亿像素作为卖点。反观iPhone这边,不但没有那些炫酷「黑科技」,甚至拍出来的照片甚至远不如其他品牌那么艳丽明亮,看这就是个弟弟。但为什么每年iPhone摄影大赛照片总是那么好看?又是什么,让iPhone年年都能跻身随手欢迎手机摄影工具的前三名呢?iPhone的相机,究竟有什么吸引人的地方?
iPhone 12在相机上的改进
先说说iPhone 12在相机上有什么变化,这次的iPhone 12系列的相机大致可以分为三个梯队:iPhone 12、iPhone 12 Pro和iPhone 12 Pro Max。
首先是iPhone 12,因为12 mini和iPhone 12用着相同的相机模组,所以这里我就放在一起介绍了。iPhone 12依然选择了「超广角+广角」的主摄像头方案,在我看来,对于Pixel、iPhone这类主打数字摄影的手机,「广角+超广角」的组合会比「广角+长焦」更为实用,详细原因接下来我会做出解释。账面上看iPhone 12的超广角摄像头与iPhone 11的应该同一款——两者皆为5片f/2.8的1200万像素摄像头,视角也同样有120°。
但在广角——也就是说主摄像头上,iPhone12的差距就体现出来了:虽然两者同样是1200万像素,但iPhone 12的广角摄像头为6镜片组,光圈也增大至f/1.6。镜片组的改动意味着苹果重新设计了整个摄像头光路,在边缘画质和镜头畸变上应该会有更好的表现。而大光圈的好处大家都知道,一来可以增大通光量,缩短曝光时间;二来也可以获得更好的夜间摄影的效果。
得益于巧妙的视频防抖算法与「超乎想象」的宽容度,视频录制一直都是iPhone的拿手项目。在Android手机奋起直追的2020年,苹果直接放下大招,将杜比视界HDR视频录制带到了iPhone上,从而拍摄其他手机难以想象的超高宽容度画面,发布会上那些在霓虹灯下拍摄的视频就很好地展示了苹果相机上的研发实力。
不过这还仅仅是iPhone 12系列的基本盘,因为在iPhone 12 Pro中,苹果还引入了Apple ProRAW这一全新的拍摄格式。肯定有人会说了,Android手机几年前就实现了RAW素材的拍摄,甚至连更早的Windows Phone都实现了RAW拍摄,为什么我还要在这里介绍ProRAW?
很简单,因为Apple ProRAW并不是传统意义上的RAW格式。
为了方便大家理解,我给大家举个例子:
如果说正常的照片拍摄是在麦当劳里买了一个巨无霸,那普通的RAW拍摄就是从供应商里买来散装的原料——食材(数据)虽多但需用户自己处理,如果用户烹饪(后期)技术不过关,做出来的东西通常都与好吃(好看)相差甚远。
但ProRAW并不是传统意义上的RAW,一方面它同样也有完整的食材(原料),另一方面这些原料会经过A14的图形处理引擎和神经网络引擎进行「预处理」,比如长曝光降噪、畸变修正以及HDR 3,之后再交给用户。
这样做的好处显而易见:传统用户只能在原始RAW和优化版本之间二选一,即使iPhone加入了再多的新特性,这些都与RAW用户无关。但有了ProRAW后,即使是喜欢「自己动手」的专业用户,也可以享受到了来自苹果的图像优化。
除了ProRAW外,iPhone 12 Pro系列依然「独占」苹果的长焦摄像头和LiDAR激光雷达,不过这次情况有些特殊,因为12 Pro和12 Pro 选择了两颗不一样的长焦摄像头。
iPhone 12 Pro采用了一颗等效52mm f/2.0长焦摄像头,而iPhone 12 Pro Max则采用了一颗等效65mm f/2.2长焦镜头——简单的说,因为焦距更长,iPhone 12 Pro Max的长焦镜头有着更大的放大倍率。
除此之外,iPhone 12 Pro Max还有着自己的「独门绝技」:它首次在iPhone中引入了「机身防抖」,也就是传感器防抖的设定。iPhone 12 Pro Max的传感器可以在焦平面进行两轴移动。与传统的镜头防抖不同,因为操作空间更大,传感器防抖可以实现更快速的防抖补偿,配合镜头原有的光学防抖,iPhone 12 Pro Max的夜间模式最高可以实现整整两秒的手持曝光。
Pro 系列独占的LiDAR激光雷达扫描仪也有了新作用,在夜间人像模式中,因光线不足,为实现更好的人像景深,LiDAR会记录整个画面的深度信息,并以此实现人像模式的自然虚化。同时有了LiDAR的帮助,夜间下对焦速度自然能快不少,因为这一模式下,LiDAR激光雷达本质上就是一个覆盖更广、测量更精细的ToF激光对焦模块。有了全幅ToF扫描得来的深度信息,自然不会出现过去iPhone夜里「拉风箱」的情况。
如何评价iPhone 12的相机
综合来看,iPhone 12在影像系统上的提升可以说是非常显著了。无论是改用7镜式主摄、提供带有预处理的ProRAW格式、还是10bit深度的视频拍摄、CMOS防抖、LiDAR对焦,苹果都在用自己擅长的事情向消费者证明自己的研发水平。虽然还有AirPower这种另类,但就苹果过往的成绩来看,只要是它能拿出来卖的产品和技术,做的都不会差。
但从另一方面看,iPhone 12系列的相机表现之所以会引起这么大的关注,在我看来其实也有些「英特尔牙膏挤多了」的味道。确实,参照过去几次相机上的进化,iPhone 12系列显得有些「不鸣则已,一鸣惊人」:自iPhone 8系列后,iPhone在相机上的推进就显得有些保守了,即使是iPhone 11 Pro系列的三摄像头,在不少用户看来也只是「拾人牙慧」——Android阵营已经玩了好多年了。
也正因过去表现平平,今年的相机系统就显得格外令人瞩目了,尤其是在大家找不到方向,只好堆砌摄像头的2020年,iPhone 12就像2007年的iPhone一样,再次为大家指明了道路。
这次的路叫「数字摄影」。
什么是数字摄影?
有一说一,数字摄影这一概念并不是由苹果提出的,甚至不是由苹果发扬光大的;在国内市场不受待见的Google Pixel 系列一直就是数字摄影的践行者。与堆砌硬件的「光学摄影」不同,数字摄影,或者用苹果的话「计算摄影」,主张的是用软件算法释放出摄像头的所有潜力。
比如借助独家的夜间模式算法,谷歌用单摄像头就实现了近乎「无光环境」下的清晰摄影,而不需要其他摄像头辅助降噪;又比如通过「超级解析」(SuperRes)算法,Pixel 3系列还用广角单摄像头实现了媲美2×长焦的「变焦」效果。这也是我之前说「数字摄影的手机超广角比长焦更重要」的原因,在算法足够强的情况下,手机已经可以用算法实现无损的2×变焦;但因不够广角而拍不下的风景,无法用算法进行补充。(当然了你用Google街景的数据Ps上去也不是不可以)
或者用一个不太恰当的说法,现在部分多摄像头手机说白了就是「一个能看的主摄+一个能用的超广角+一个基本没用的长焦+一个不会有人用的凑数摄像头」,用70+60+30+10的叠加分数凑出了170分的「相机表现」。而「数字摄影」阵营的分数往往是「100分主摄+90分算法」,因此能用更低的硬件成本实现出更好的相机表现。
从iPhone 12发布会来看,虽然苹果也给出了不少硬件层面的提升,但这些技术的背后,都有着数字摄影的默默支持。
一个好的图像处理引擎可以有效提升图像质量,这个观点在单反相机与索尼电视中已被多次证明。一方面,好的图像处理引擎可以更快地执行曝光包围、HDR、白平衡调整、降噪等操作,换句话说,他们可以早更短的时间进行更高任务量的优化工作。另一方面,好的图像处理引擎还可以「理解」画面中的内容,并通过深度学习的方式改进自己的优化方式,从而实现更真实的拍摄效果。
而iPhone 12系列这个案例中,在那些精美的照片与视频背后,有着ARM架构下最强的移动芯片:A14。这款芯片由苹果设计,所运行的系统也由苹果开发,软硬合一自然可以发挥出超强的表现。之前苹果在WWDC上展示的那台能剪多条4K视频的ARM Mac,就是苹果资源调度与硬件实力的最好表现。
桌面级的移动芯片,自然可以跑出专业级的相机表现,这就是苹果敢于在手机上提供ProRAW文件、拍摄10bit画面的原因。即使这个ProRAW格式需要用特定的软件才能编辑、10bit画面也是在文件记录时以曲线映射的方式实现。但不要忘记,软件正是苹果赖以生存的根基之一。
数字摄影和一键Ps有什么不同?
看到这里可能又有人不服气了,「你吹了那么久的数字摄影,说白了不就是AI一键优化吗?」
是,也不是。先说说相同的地方,数字摄影和一键Ps都调用了人工智能,这点相信大家总是同意的。无论是数字摄影还是一键Ps,软件都有一个首要前提,那就是「搞清楚拍的是什么」。不少手机都有「AI场景」的功能,比如你对着食物拍照,它就会开启食物模式;晚上对着天上拍照,就会开启……对吧。三星的部分手机甚至还支持AI辅助构图的功能,算是AI里的佼佼者了。
但不同的地方在于,数字摄影的素材完全来源于拍摄时所得到的数据,不会有外来数据的引入。而一键Ps通常则会根据算法的喜好加入一些别的东西,从而掩盖原始素材的缺点。
用回之前巨无霸的例子,在数字摄影的范畴,你点了一个巨无霸:接单(拍照)后摄像头会给出一份完整的材料(数据包),后厨(图像处理器和AI单元)只会对肉饼进行细微的调味,煎好后将其组装成汉堡,不会引入外来食材。
但一键Ps就不一样了,你同样点一个巨无霸:为了掩盖原料不新鲜(锐度、色彩、宽容度不佳),后厨会用手边的素材对原料进行替换,比如放入更绿的假生菜、更红的假番茄、更大的假肉片;做出一个看似巨无霸,但实际上一点也不真实的汉堡,最后再往汉堡上插一面印有自己品牌和签名的小旗子,「完美」。
比如之前就有用户反馈,说用自己的Android手机拍不新鲜的蔬菜,怎么拍都是郁郁葱葱的样子,最后还得用iPhone拍才能完成退货流程。
换句话说,数字摄影或计算摄影中不应引入外来的、无中生有的素材。这也是iPhone全面加入数字摄影阵营后,我依然将iPhone和Pixel归类到「真实系」拍照的原因。
数字摄影就是未来?
当然,数字摄影也不意味着单摄像头就能走天涯。除了刚刚讲过的超广角画面以外,数字摄影的方案也有自己的弊端,一方面它对硬件和算法有着极高的要求;另一方面,镜头的光学特性,比如透视关系和畸变,就没有办法通过数字摄影来实现,因此多摄像头依然有自己存在的意义。
但这并不意味着摄像头越多就越好,刚才就说过,软硬结合的数字摄影才会是未来的主流。摄像头越多手机的成本就越高,虽然可以通过提高产量的方式降低BOM价格,但成本依然不容小视。而且多摄像头通常还伴随着手机重量显著上升、电池空间被迫所见的问题。
数字摄影的诞生降低了手机对摄像头的依赖,即使算法开发成本高企,但算法成本可以通过提升产量方式进行直接分摊,同时还能降低对手机内部空间的要求。
早在第一代Pixel发布时,原生的「谷歌相机」就向大家证明了数字摄影的潜力,之后的Pixel 2、Pixel 3更是将数字摄影的实力完完全全展现在大众眼前。对于这次的iPhone 12,我很高兴苹果愿意投身到数字摄影的阵营里去。考虑到苹果对业界的影响力,未来应该也会有越来越多品牌愿意加入数字摄影的阵营,未来的手机摄影,也终于有了新的方向。#IPHONE12#苹果#IPHONE收藏
但在广角——也就是说主摄像头上,iPhone12的差距就体现出来了:虽然两者同样是1200万像素,但iPhone 12的广角摄像头为6镜片组,光圈也增大至f/1.6。镜片组的改动意味着苹果重新设计了整个摄像头光路,在边缘画质和镜头畸变上应该会有更好的表现。而大光圈的好处大家都知道,一来可以增大通光量,缩短曝光时间;二来也可以获得更好的夜间摄影的效果。
得益于巧妙的视频防抖算法与「超乎想象」的宽容度,视频录制一直都是iPhone的拿手项目。在Android手机奋起直追的2020年,苹果直接放下大招,将杜比视界HDR视频录制带到了iPhone上,从而拍摄其他手机难以想象的超高宽容度画面,发布会上那些在霓虹灯下拍摄的视频就很好地展示了苹果相机上的研发实力。
不过这还仅仅是iPhone 12系列的基本盘,因为在iPhone 12 Pro中,苹果还引入了Apple ProRAW这一全新的拍摄格式。肯定有人会说了,Android手机几年前就实现了RAW素材的拍摄,甚至连更早的Windows Phone都实现了RAW拍摄,为什么我还要在这里介绍ProRAW?
很简单,因为Apple ProRAW并不是传统意义上的RAW格式。
为了方便大家理解,我给大家举个例子:
如果说正常的照片拍摄是在麦当劳里买了一个巨无霸,那普通的RAW拍摄就是从供应商里买来散装的原料——食材(数据)虽多但需用户自己处理,如果用户烹饪(后期)技术不过关,做出来的东西通常都与好吃(好看)相差甚远。
但ProRAW并不是传统意义上的RAW,一方面它同样也有完整的食材(原料),另一方面这些原料会经过A14的图形处理引擎和神经网络引擎进行「预处理」,比如长曝光降噪、畸变修正以及HDR 3,之后再交给用户。
这样做的好处显而易见:传统用户只能在原始RAW和优化版本之间二选一,即使iPhone加入了再多的新特性,这些都与RAW用户无关。但有了ProRAW后,即使是喜欢「自己动手」的专业用户,也可以享受到了来自苹果的图像优化。
除了ProRAW外,iPhone 12 Pro系列依然「独占」苹果的长焦摄像头和LiDAR激光雷达,不过这次情况有些特殊,因为12 Pro和12 Pro 选择了两颗不一样的长焦摄像头。
iPhone 12 Pro采用了一颗等效52mm f/2.0长焦摄像头,而iPhone 12 Pro Max则采用了一颗等效65mm f/2.2长焦镜头——简单的说,因为焦距更长,iPhone 12 Pro Max的长焦镜头有着更大的放大倍率。
除此之外,iPhone 12 Pro Max还有着自己的「独门绝技」:它首次在iPhone中引入了「机身防抖」,也就是传感器防抖的设定。iPhone 12 Pro Max的传感器可以在焦平面进行两轴移动。与传统的镜头防抖不同,因为操作空间更大,传感器防抖可以实现更快速的防抖补偿,配合镜头原有的光学防抖,iPhone 12 Pro Max的夜间模式最高可以实现整整两秒的手持曝光。
Pro 系列独占的LiDAR激光雷达扫描仪也有了新作用,在夜间人像模式中,因光线不足,为实现更好的人像景深,LiDAR会记录整个画面的深度信息,并以此实现人像模式的自然虚化。同时有了LiDAR的帮助,夜间下对焦速度自然能快不少,因为这一模式下,LiDAR激光雷达本质上就是一个覆盖更广、测量更精细的ToF激光对焦模块。有了全幅ToF扫描得来的深度信息,自然不会出现过去iPhone夜里「拉风箱」的情况。
或者用一个不太恰当的说法,现在部分多摄像头手机说白了就是「一个能看的主摄+一个能用的超广角+一个基本没用的长焦+一个不会有人用的凑数摄像头」,用70+60+30+10的叠加分数凑出了170分的「相机表现」。而「数字摄影」阵营的分数往往是「100分主摄+90分算法」,因此能用更低的硬件成本实现出更好的相机表现。
从iPhone 12发布会来看,虽然苹果也给出了不少硬件层面的提升,但这些技术的背后,都有着数字摄影的默默支持。
一个好的图像处理引擎可以有效提升图像质量,这个观点在单反相机与索尼电视中已被多次证明。一方面,好的图像处理引擎可以更快地执行曝光包围、HDR、白平衡调整、降噪等操作,换句话说,他们可以早更短的时间进行更高任务量的优化工作。另一方面,好的图像处理引擎还可以「理解」画面中的内容,并通过深度学习的方式改进自己的优化方式,从而实现更真实的拍摄效果。
而iPhone 12系列这个案例中,在那些精美的照片与视频背后,有着ARM架构下最强的移动芯片:A14。这款芯片由苹果设计,所运行的系统也由苹果开发,软硬合一自然可以发挥出超强的表现。之前苹果在WWDC上展示的那台能剪多条4K视频的ARM Mac,就是苹果资源调度与硬件实力的最好表现。
桌面级的移动芯片,自然可以跑出专业级的相机表现,这就是苹果敢于在手机上提供ProRAW文件、拍摄10bit画面的原因。即使这个ProRAW格式需要用特定的软件才能编辑、10bit画面也是在文件记录时以曲线映射的方式实现。但不要忘记,软件正是苹果赖以生存的根基之一。
数字摄影和一键Ps有什么不同?
看到这里可能又有人不服气了,「你吹了那么久的数字摄影,说白了不就是AI一键优化吗?」
是,也不是。先说说相同的地方,数字摄影和一键Ps都调用了人工智能,这点相信大家总是同意的。无论是数字摄影还是一键Ps,软件都有一个首要前提,那就是「搞清楚拍的是什么」。不少手机都有「AI场景」的功能,比如你对着食物拍照,它就会开启食物模式;晚上对着天上拍照,就会开启……对吧。三星的部分手机甚至还支持AI辅助构图的功能,算是AI里的佼佼者了。
但不同的地方在于,数字摄影的素材完全来源于拍摄时所得到的数据,不会有外来数据的引入。而一键Ps通常则会根据算法的喜好加入一些别的东西,从而掩盖原始素材的缺点。
用回之前巨无霸的例子,在数字摄影的范畴,你点了一个巨无霸:接单(拍照)后摄像头会给出一份完整的材料(数据包),后厨(图像处理器和AI单元)只会对肉饼进行细微的调味,煎好后将其组装成汉堡,不会引入外来食材。
但一键Ps就不一样了,你同样点一个巨无霸:为了掩盖原料不新鲜(锐度、色彩、宽容度不佳),后厨会用手边的素材对原料进行替换,比如放入更绿的假生菜、更红的假番茄、更大的假肉片;做出一个看似巨无霸,但实际上一点也不真实的汉堡,最后再往汉堡上插一面印有自己品牌和签名的小旗子,「完美」。
比如之前就有用户反馈,说用自己的Android手机拍不新鲜的蔬菜,怎么拍都是郁郁葱葱的样子,最后还得用iPhone拍才能完成退货流程。
换句话说,数字摄影或计算摄影中不应引入外来的、无中生有的素材。这也是iPhone全面加入数字摄影阵营后,我依然将iPhone和Pixel归类到「真实系」拍照的原因。
数字摄影就是未来?
当然,数字摄影也不意味着单摄像头就能走天涯。除了刚刚讲过的超广角画面以外,数字摄影的方案也有自己的弊端,一方面它对硬件和算法有着极高的要求;另一方面,镜头的光学特性,比如透视关系和畸变,就没有办法通过数字摄影来实现,因此多摄像头依然有自己存在的意义。
但这并不意味着摄像头越多就越好,刚才就说过,软硬结合的数字摄影才会是未来的主流。摄像头越多手机的成本就越高,虽然可以通过提高产量的方式降低BOM价格,但成本依然不容小视。而且多摄像头通常还伴随着手机重量显著上升、电池空间被迫所见的问题。
数字摄影的诞生降低了手机对摄像头的依赖,即使算法开发成本高企,但算法成本可以通过提升产量方式进行直接分摊,同时还能降低对手机内部空间的要求。
早在第一代Pixel发布时,原生的「谷歌相机」就向大家证明了数字摄影的潜力,之后的Pixel 2、Pixel 3更是将数字摄影的实力完完全全展现在大众眼前。对于这次的iPhone 12,我很高兴苹果愿意投身到数字摄影的阵营里去。考虑到苹果对业界的影响力,未来应该也会有越来越多品牌愿意加入数字摄影的阵营,未来的手机摄影,也终于有了新的方向。