镜组的另一个重要作用就是修正物体成像时的像差,当光线透过第一片镜片时产生的误差可以通过后面的镜片再次折射矫正。理论上镜组镜片数量越多,矫正效果就越好。
因此可以通过增加镜组镜片数量来抑制慧差。或者在设计镜组时就把慧差考虑进去,优化镜组结构,采用复合透镜,通过改变各个面的曲率半径来减少慧差。
不过优化镜组的成本可不低,镜组升级属于光学技术,与数字化技术不同,在原理上相对简单易实现。但是它难在对制造工艺和精度的要求极高,高精密产品的价格我们都懂,经常会高到让人觉得离谱,这个玩相机的朋友应该会感同身受。
这也是为什么最近几年手机厂商在相机硬件上而很少提及镜组的原因。第一是贵,第二是花了钱还不一定能做出效果。
但只要消费者开始重视起镜组,再贵厂商们也愿意尝试在镜组上发力。今年小米、华为、等厂商也都在自家的旗舰机上用上了8P镜片组(8层镜片),之前大部分手机用的都是6P或者7P镜组。
相信随着时间的推移,手机镜组素质会逐步赶上,与更大尺寸的CMOS形成更和谐完善的拍摄系统。
除此优化镜组之外的话就只能通过手机算法后期来改善这一问题了。毕竟处理器的运算能力才是手机拍摄的核心竞争力。
2020年,手机升级大底传感器和高像素是好是坏,我们应该辩证地来看待这个问题。摄像模组是一个复杂的光学电子系统,除了传感器,镜头素质和算法对画质同样影响巨大
通过牺牲光学性能来提升传感器素质这种做法是否真的值得呢?
我认为是不值得的,手机拍摄追求的是更高的画质和更好的拍摄体验,而不是用了几个摄像头、多少像素、多大的传感器。
拿这次安卓机皇集体翻车来说,我相信不管是学习还是工作近距离拍摄文档一定会用的到,任你夜景有多厉害、中心画质解析力有多强,拍出来四周是一片糊又有何意义?
就好像一个水桶,一旦其中一项成了短板,其他木板筑得再高再醒目也无法提升桶内的水位。
我们需要技术上的探索和突破,但最好是建立在日常拍照体验不受影响的前提下。
就这一点来说,苹果就做得比较好虽然也出现过硬镜片镀膜问题产生的“鬼影门”,但翻车次数较安卓还是少。
iPhone11系列到现在还没用上大底传感器,像素也是祖传的1200万,但是不管是拍照还是视频它能通过智能HDR、deep fusion、夜景、视频高动态 等算法优化带来优秀、均衡、完善的体验,充分压榨硬件的每一丝潜能。