早在iPhone 12发售前,我们其实就对iPhone 12和iPhone 12 Pro的设计、性能、5G以及影像等层面做了体验和解析。一般来说,影像是手机体验上最大的自变量。它在用户体验上易于感知,同时又属于高频次的功能应用场景,理所当然应该受到重视。
尤其是对于iPhone 12系列来说,相机更成为了苹果用以展现“Pro”级体验的重要差异点。
对于iPhone这样在产品定义上自成一派的品牌来说,以“数镜头”、“比像素”的方式去评判手机成像好坏的做法并不客观。拿到iPhone 12 Pro之后这段时间,我们有针对性地对其影像系统做了一些体验。
目的是弄清楚两个方面的问题:一是看看iPhone 12和当前行业一流的拍照旗舰相比,在影像方案上有哪些差异;二是站在苹果的角度,尝试去理解“Shot on iPhone”背后的产品和技术逻辑。
每年新iPhone发布之后,苹果官方都有一个“保留节目”——Experiments Shot on iPhone系列。今年iPhone 12 Pro这支片子名为《Dark Universe》(暗黑宇宙),从名字就能看出来,主要展示的就是iPhone在低光照环境下的成像能力。
iPhone 12 Pro相机系统这次重点也是围绕暗光成像作为主要的升级方向的。依然采用的是1200万像素的三摄方案,但主摄方案的光圈增加到了?/1.6,同时镜头也采用了全新设计的7镜片设计。更多的镜片数量意味着镜头汇聚光线的能力更强,能够增加镜头解析力与对比度。
从这里其实可以看得出来,iPhone 12 Pro和前代相比可以算是改进性的升级。其硬件方案上并没有明显的提升,只是在原有三摄方案的基础上做了一些针对性的优化。
沿用1200万像素,尤其是在主摄方案上1200万像素的做法,在当前行业普遍采用高像素方案的大环境下显得独树一帜。苹果既然敢于如此,那么1200万像素的iPhone 12 Pro和当前市面上一流的高像素旗舰相比会不会吃亏呢?
我们拿来了华为Mate40 Pro和三星S20 Ultra两款安卓旗舰作为参照对象(之所以选择三星S20 Ultra,是因为其经过了三星接近大半年的OTA优化,成像素质更加稳定)。
华为Mate40 Pro和三星S20 Ultra的主摄分别采用的是IMX700(50MP)以及HM1(108MP),二者都采用了当下高像素机型常见的像素融合方案。其中,前者是采用了四合一,默认输出为1250万像素。而后者采用的是九合一方案,默认输出1200万像素。
华为Mate40 Pro(上)三星S20 Ultra(中)iPhone 12 Pro(下)
华为Mate40 Pro和三星S20 Ultra主摄采用的“大底+高像素”方案的确有一定的画质优势。最明显的差异就是,两者的样张更经得起“放大”。将样张拉伸到400%左右进行对比,可以发现iPhone 12 Pro的画面已经有些许模糊的迹象,而华为Mate40 Pro和三星S20 Ultra依然能够有相对锐利清晰的观感。
但要注意,这里就可以看出,高像素带来的画质红利是有限的。华为Mate40 Pro和三星S20 Ultra主摄四倍和九倍的像素数,并没有给予手机成像与其绝对像素数相匹配的线性画质提升。这是因为绝对的画质不仅仅取决于像素数量,还关系到CMOS尺寸、镜组ISP、算法等因素。
iPhone 12 Pro没有采用高像素方案的做法也变得可以理解。既然一味提升像素并不能带来本质上的画质提升,还不如在“像素够用”的基础上用心打磨。三颗后置镜头都采用1200万像素我认为很大程度上是为了提升多摄模组成像体验的一致性。在这方面,目前iPhone 12 Pro的体验是无人能敌的。
早在去年的iPhone 11系列上就被人津津乐道的“丝滑”变焦体验,很大程度上也和三颗镜头在像素数量的一致有关。同时,iPhone 12 Pro的三颗摄像头在白平衡、色彩表现等方面的统一也让人印象深刻。
不过并不能因此得出当前行业普遍采用的高像素是“方向错了”的结论。高像素方案有两个优势:其一就是通过多像素合并技术,提高感光度,获得暗光条件下的画质提升。
其次就是高像素能够对手机的长焦画质起到辅助作用。更高的像素输出提供了更大的画面裁切空间,也就是大家常说的“数码变焦”。它和光学变焦方案搭配使用,能够衔接广角-长焦镜头之间的中间焦段,也能实现更好的“数码+光学”的混合变焦画质。
除了混合变焦之外,多像素合并技术本身就是建立在默认“低像素”输出的基础之上的。对于手机这类设备来说,在光学性能受到设备体积制约的情况下,以AI影像为代表的计算摄影对于手机成像有更明显的辅助意义。
而动辄数千万甚至是上亿的全像素输出,对于ISP性能、功耗是一个严峻的考验,这让计算摄影的应用变得异常困难。这也是华为Mate40 Pro和三星S20 Ultra等高像素手机均采用和iPhone 12 Pro差不多的默认1200万像素输出的主要原因。
由此看来,1200万像素的三摄方案有一定的道理。其实就是在牺牲了一定“不太明显”的解析力的情况下,实现了更好的多摄成像体验。
多场景的适应能力
iPhone 12 Pro的这种优势体现在哪里呢?最典型的其实就是极限环境下的成像。
长久以来,iPhone的成像一直以“准确”著称。手机在任何环境下,都拥有精准的白平衡控制能力和色彩还原水平。苹果在这方面的坚持其实和很多友商都不太一样。尤其是在当下,大多数的手机都会使用AI将色彩尽可能做到讨好用户眼球。而这种准确,真实的成像风格就是苹果对于手机拍照的基本理解。
最典型例子其实还是iPhone 12 Pro前置成像,苹果的原生相机自拍向来都被视作是检验颜值的标准之一。其相对真实的前置成像风格,让脸部的一些小瑕疵在照片上暴露无遗。
但一些特殊的场景下,这种真实自然的前置成像就有了自己的发挥空间。
比如样张中这种极暗光环境,iPhone 12 Pro的前置相机能够在暗夜模式的辅助下提供2S左右的曝光时长,以提升画面的整体亮度。与此同时,还尽可能保留了人物的更多细节,比如边缘的发丝,衣服的纹理。同时大面积散射的光源也并没有对人物五官应有的立体感造成影响,脸部应有的光影、层次得到了很好地还原。
这种应对复杂极限场景的能力,在手机产品中是非常难得的。而iPhone 12 Pro的厉害之处在于将这种能力赋予了每一颗镜头。
如上图所示的这种单一光源场景,其所在的拍摄环境本身就缺乏足够多的光线。iPhone 12 Pro的主摄在这种条件下能够做到精准的曝光,还能够将栏杆上反射的光线、地板的纹理、墙面的细节保留下来。整个画面光源部分曝光准确,同时明暗过渡自然,细节清晰,展现出了极佳的动态范围。
这种能够准确理解所处环境光线,并将其精准捕捉的能力,对于日常成像的至关重要。尤其是在夜间拍照的时候,往往会感觉自己看到的景象和手机拍出来的画面存在很大的差异。其实就是因为你的眼睛看到了的画面,但手机却无法将这种明暗关系以及细节层次呈现出来。最明显的表现就是,大多数手机在这种场景下,普遍都存在暗处一片死黑的情况。
iPhone 12 Pro在面对这样的拍摄场景时,应用到了名为“深度融合”的成像技术。这项技术其实有点类似于HDR:在一些中低光场景中,手机的摄像头会先拍摄多张曝光值不同的包围曝光照片,然后将这些画面合成一张曝光值理想的画面。然后通过AI神经引擎向高光和暗部等区域添加足够的细节,最后再通过AI进行画面降噪处理,生成最终的成片。
这里其实就体现了计算摄影的意义,事实上你最终得到照片是经过了AI处理之后的效果。再说直白一些,这些照片很大程度上就是AI“算”出来的画面。这其实并非是苹果的专属,当前智能手机针对暗光环境开发应用的“夜景模式”其实也属于这个范畴。
华为Mate40 Pro(上)三星S20 Ultra(中)iPhone12 Pro(下)
上面这组照片是在一个几乎纯黑的环境中隔窗拍摄。三台手机都采用了“夜景模式”,提供了最多十多秒的手持曝光时长。iPhone 12 Pro的画面亮度最高,同时对于花朵的色彩有非常自然的还原,还兼顾了画面细节。
相比之下,华为Mate40 Pro的问题在于画面有些泛黄,三星S20 Ultra则整体保持了较高的色彩饱和度,样张有不错的观感。
华为Mate40 Pro(上)三星S20 Ultra(中)iPhone12 Pro(下)
不过华为Mate40 Pro应对暗光场景的解决办法更多。尤其是借助其手持超级夜景模式,能够大幅提升画面亮度和暗部细节。相比之下,三星S20 Ultra的画面亮度有所欠缺,同时也丢失了一些应有的细节。iPhone12 Pro的画面亮度尚可,但在细节表现上稍逊华为一筹。总的来看,其暗光成像也是属于一流的水平。
需要注意的是,iPhone 12 Pro的这种优异的暗光成像素质不仅仅体现在主摄,还有超广角镜头的画质表现上。由于这颗超广角镜头增大了光圈,同时支持了夜景模式,和上一代的超广角镜头相比,其在夜间同样拥有了极佳的画质和优秀的色彩表现。尤其是在一些极限环境下边缘画质也有了非常明显的进步。
但需要注意的是,iPhone 12 Pro的超广角镜头对于畸变控制能力还有待提升。
另外之前iPhone 11系列上就存在的“鬼影”问题,iPhone 12 Pro依然没有明显的改善。在上图这样的深色背景,单一光源的环境下,“鬼影”就会出现。只能在拍摄时尽可能调整手机的拍摄角度,可以一定程度上规避这个问题。
至于长焦镜头,iPhone 12 Pro这次依然是采用的2X于主摄的长焦方案。这颗56mm镜头明显就是给人像模式准备的,所以它还是更应该叫做“人像镜头”。
由于这次iPhone 12 Pro加入了一颗激光雷达镜头,用以提升暗光环境下的对焦体验。在这颗雷达镜头的辅助下,iPhone 12 Pro的对焦体验精准快速,尤其是在暗光环境下能够准确完成对焦。
而借助而利用激光雷达深度图提供的细节,使得相机即使是在光线昏暗,神经网络引擎也能让拍摄主体清晰对焦,拍摄出背景虚化良好的人像照片。激光雷达镜头的加入对于iPhone 12 Pro整体对焦体验和夜景人像的辅助作用非常明显。
事实上,这颗雷达镜头能做的事儿其实还有很多,比如做一个简单的3D建模什么的。
算力,是一切的基础
而这一切,其实是建立在iPhone 12 Pro的算力基础之上的。
正如前面所说,计算摄影其实本身对于手机性能有非常高的要求。得益于A14仿生芯片提供的强大性能,这次iPhone 12 Pro搭载的智能HDR 3技术,能够通过机器学习和曝光合成技术,实现更好的大光比环境表现。
这里所谓的“智能”,就是它能够自动优化亮部、暗部,主体轮廓,能够对画面的白平衡进行精准调整。iPhone 12 Pro应对逆光环境的能力是非常强悍的。尤其是这种HDR画质在iPhone 12 Pro的屏幕上呈现出了堪称惊艳的画质表现。
而真正能体现iPhone 12 Pro算力极限的,其实还是其支持杜比视界视频的拍摄。
杜比视界是杜比实验室开发的一种专有的动态HDR格式。通过在逐景(甚至逐帧)的基础上调整画面,可以让用户看到更多的细节,实现更好的色彩精度。
多说一句,你们还记得iPhone 12 Pro发布会上紧接着库克之后登场的那位副总裁鲍勃· 波彻斯(Bob Borchers)吗?他之前就曾经是杜比实验室的首席市场官兼高级副总裁。
拍摄杜比视界格式的视频时,iPhone 12 Pro 会拍摄两帧不同曝光值的画面,再根据定制的图像信号处理器进行分析,创建一张代表每帧画面色调值的直方图。然后根据这张直方图生成杜比视界视频元数据。
这对于iPhone 12 Pro的A14仿生芯片的性能有极高的要求。因为这意味着,iPhone 12 Pro需要实时处理海量的视频数据。4K 60帧的视频所包含的数据运算量已经相当大了,而iPhone 12 Pro还要在此基础上做每一帧画面的数据进行分析,然后对细节和色彩进行动态调整。这对于手机的性能和功耗控制的要求可想而知。
以上就是我们使用iPhone 12 Pro拍摄的一段杜比视界视频的屏摄画面。可以看到,和普通的SDR画面相比,杜比视界的画面亮度更高,细节更多,色彩更加艳丽。
最直观的变化还是你从杜比视界画面回到普通SDR画面之后产生的落差感。只有这个时候,你才会对杜比视界的HDR画面有更深刻的理解。习惯了杜比视界画质之后,你再回到普通画面,你会觉得后者简直是寡淡如水。
很可惜,这种差异我无法通过视频的方式动态呈现给你。因为大多数的平台当前还不支持杜比视界格式,而且即便平台支持,也需要你的手机屏幕硬件支持。实际上iPhone 12 Pro搭载的这块XDR显示屏和它才是绝配,这也体现了苹果历来软硬件生态深度融合的特点。
可以看出,苹果在维持一贯优异精准的成像素质的基础上,通过各种手段着力提升iPhone 12Pro应对极限环境的成像能力。这也是当前旗舰手机最能够拉开拍照体验差距的地方。和当前一流的夜拍旗舰相比,它的优势在于稳定出色的画质输出以及良好的拍摄体验。尤其是在各种复杂场景下,它都有良好的适应能力和稳定的成像表现。
不可否认,当前无论是消费者还是终端厂商对于手机成像都有足够重视。在智能手机成像方案的演进上也难免有一些浮躁和激进的情绪。
尤其是很多品牌都将注意力放在了更能营造营销卖点,更能吸引消费者眼球的“噱头”型功能上。这样的后果就是,大家到了最后都不得不拼命增加手机的相机数量,大幅提升镜头像素数.......只有这样才便于宣传。这种做法用当前一个比较流行的词形容就是:内卷。
手机影像技术当前就面临一定的“内卷化”特征,很大程度上这其实是对于消费者核心需求的忽视。大多数人想要的就是一台“随时能拿出来,拿出来就能拍,拍肯定能拍好”的手机。以这个角度来看,iPhone 12 Pro还是那个值得学习和借鉴的。
另一方面,这种“内卷化”何尝又不是手机行业“群雄逐鹿”的一种体现呢?和当前同样优秀的同行们相比,iPhone 12 Pro也存在让人懊恼的“鬼影”问题,绝对画质也还有一定的提升空间,长焦方案是不是可以再够远一点?这些都是iPhone 12 Pro身上实实在在存在的问题和不足。
不过没关系,不是还有“超大杯”的iPhone 12 Pro Max吗?更大的主摄,更远的长焦,还有诸如位移式防抖这类独占的技术加持。尤其是在视频拍摄方面,iPhone12 Pro结合杜比视界的能力已经恐怖如斯,理论上有更好暗光画质和更强防抖能力的iPhone 12 Pro Max会有怎样的表现?非常值得期待。这一切悬念,就等着我们11号的抢先体验揭晓吧。
机智猫专注数码科技,关注我,一起测新机、聊行业、学技巧~