手机摄影,算是近几年手机厂商们着重发展的领域之一,说到底需要专业相机进行严肃摄影的人还是少数,对大多数消费者来说,智能手机就足以胜任日常的拍摄任务。
但另一说,大众消费者的摄影水平参差不齐,也谈不上什么“技术”可言,然而他们也依然对拍照的效果有着不低的要求,这本身似乎是一对矛盾。那么,不专业的设备加上不懂摄影的消费者,可以拍出“专业照片”吗?理论上是不可能的,但手机厂商的一项动作,赋予了这种可能性。
近日,雷军在宣传自己的最新年度旗舰小米11系列时,提到了一个名词:计算摄影。
简而言之,它是一种数字处理技术,可以从成像机理上来改进传统手机相机,并将硬件设计与软件计算能力有机结合,全方位地捕捉真实世界的场景信息。通过改善色彩和照明效果,并可以将局部的细节从黑暗之中拉出来,这能使拍照出来的成像效果非常好,色彩鲜艳亮丽,十分契合人眼的观感。
那么这个计算摄影到底能够带来什么实质性的改变呢?小米所提到的这项技术与之前iPhone是否又完全一致呢?
浓墨重彩的一笔:谷歌Pxiel系列
其实最早在发布会上提出这项技术的手机是谷歌推出的Pixel XL,通过当时最强大的IMX378传感器和初出茅庐的计算摄影功能,它成功击败了一系列旗舰产品登顶DxO排行榜(当年的DxO还是有一定可信度)。作为对比,当时同样采用IMX378的小米5的相机成像效果要差上不少。
Pixel所使用的计算摄影技术核心原理是HDR+,和其他手机厂商的做法不同,一般厂商实现HDR功能基本是靠传感器“自力更生”,但谷歌利用自身强大的软件实力,在传感器硬件的基础上引入了后期处理,让HDR成像的速度更快、效果更好。
其原理主要是使用欠曝的Burst shoot 来创建多重相片,然后通过合并的方式呈现出拥有更高宽容度的图像。原理听起来容易,但想稳定输出拥有如此高水准的照片并不容易,谷歌相关团队也花费了两年多的时间才正式推出这一技术。
到了2018年,就在那个所有手机厂商都在通过增加摄像头数量的方式来提升自己拍摄体验的年代,谷歌带来了手机计算摄影历史上最有代表性的机型,Google Pixel 3 系列,它独步天下的杀手锏,是“15张照片堆栈”。
有一说一,Pixel 3 XL使用的IMX363传感器性能并不强,尤其是在夜晚的时候表现十分勉强,和当时市面上的一票“大底传感器”比起来,显得老态龙钟。
而Pixel 3通过15张RAW堆栈均值来实现信噪比端的提升,再结合谷歌自家的降噪算法直接解决了困扰业界多年的手持不能拍暗光的难题,还大大提高了手机影像的上限。小雷这里也拿出多年前的Pixel 3 XL的样张,从几组样张中就能够看出Pixel 3 XL的算法强大之处,就算放到2020年也能够排得上号。
除了夜景算法外,Pixel 3在人像模式上也带来了全新的相机算法,为了能够获取到更优质的人像算法,谷歌相机团队做出了一个五摄怪物:将五台Pixel 3拼在一起,通过获取的图像数据来进行算法训练,最后根据生成的景深映射图进行不同程度的背景虚化处理。即便是有明显的物距,也能实现比较自然的前景背景虚化效果,这甚至是如今很多拥有多摄方案的手机都无法比拟的。
同时,谷歌还利用了自家的原生安卓底层对其进行了优化,前文提到的15张堆栈的操作在电脑中都需要花费一定的时间和精力。而Pixel 3可以在短短几秒内搞定,出片率极高。
在Pixel 4上,谷歌为其增加了一颗专用于人像拍摄的2倍变焦镜头,并带来了更有意思的天文模式。说起天文模式,可能不少使用过谷歌相机的用户都能找到一个名为“天体摄影”的功能,顾名思义,谷歌想让用户使用手中的手机就能轻松拍下浩瀚的星空,也就是说能够在光线极暗的情况下可以输出一张画面亮度远高于肉眼的相片。
左为Pixel 3 XL,右为iPhone 12 Pro(均开启夜景)
考虑到拍照时用户在拍摄时手难免会抖动的情况,Pixel 3在不需要解码器的情况下就识别出场景中每个元素的真实红、绿、蓝数据。这种更好的源数据意味着谷歌可以比通常的方法更好地数码放大照片,谷歌称之为超级分辨率变焦。官方表示Pxiel 4的2倍变焦镜头能够达到同行8倍变焦镜头的水平。
左为Pixel 3 XL,右为小米10至尊纪念版(均开启夜景模式)
可以说,以Pixel系列为代表机型的横空出世,宣告了“计算摄影”时代的到来。随着ISP、SoC的算力不断提升,我们发现原来拍出出色的照片也可以不依赖强悍的硬件,正如航天圈子里的笑话“力大砖飞”一样,只要算法足够强劲,破烂传感器都能拍出出色的照片来。
更好的计算摄影,在iPhone上呈现
虽然在手机计算摄影这一领域Pixel的地位举足轻重,无奈其知名度与市场份额着实较低,不少国内用户根本不知道这个品牌的存在,更别说前文提到的一系列技术了。真正让计算摄影技术这一概念被用户熟知的还是那家手机巨头——苹果。
苹果在iPhone 11系列发布会上就重点介绍了iPhone 11系列全新升级的相机系统,这也是苹果第一次在发布会上花费将近一半时间去讲解iPhone的影像系统。苹果将自己的计算摄影功能命名为深度融合“深度融合”,它需要前后进行四次长曝光、四次短曝光,然后再进行一次长曝光,最终从这些照片中选出表现最好的图像将其融合在一起。
另外iPhone 11系列还会利用机器学习技术,智能地去调节照片的白平衡、对比度、饱和度以及总体质感,让拍摄出来的样张更为自然。简单来说,就是让用户能够“傻瓜式”地拍出一张讨喜的照片出来,这也是不少用户钟爱iPhone拍照的原因之一。
而在Pixel十分重视的人像方面,苹果也对此进行了相应的改进优化,在最新的iPhone 12 Pro系列上配备了LiDAR摄像头,能够帮助iPhone 12 Pro系列在人像识别时的景深控制得更好,像头发边缘这样非常考验细节的地方过渡也会更为自然,很少出现略带抠图痕迹的情况。
夜景部分的表现,小雷这里就不多赘述了,从前者的对比图来看,虽然iPhone 12 Pro在夜景方面的表现相比前几代已经有了质的改变,但与Pixel 3 XL还有一段距离。
计算摄影会是未来?
随着小米开始着重宣传计算摄影技术后,国内将会有越来越多的用户认识并了解这一技术,从普通消费者的角度来看,计算摄影技术的普及和优化是一件好事,它能够让越来越多的用户轻松拍出自己喜欢的照片。
毕竟绝大多数手机用户并没有太多摄影方面的专业知识,你给他们一个专业单反,他们都很难拍出什么大作出来,相反你给他们一个“傻瓜式”相机,他们会觉得这真是个好东西。
计算摄影的初衷只是为了帮助人们简化摄影流程,现在计算摄影已经可以一定程度上弥补普通传感器与大底传感器之间的差距;在未来,随着图像处理性能的提升,计算摄影能够做到的事情变得更多,硬件不再是决定手机成像效果好坏的关键因素。
它最终一定会拉平大多数业余摄影爱好者的差距。换句话说,今后任何人操起手机一摁就是大片,因为这是所有人的期望。