为什么iPhoneSE依靠单摄像头就可以拍摄人像照片

如题所述

正常情况下,手机拍「人像模式」这样的虚化照片都得靠双摄来完成好比是人类的双眼,两个位置不同的镜头会获取两张不同角度的画面,然后结合视角差估算出景深,从而实现背景虚化,保持主体清晰。
那么iPhone的前置单摄可以实现人像拍摄的核心在于FaceID系统中的红外点阵投影器,它也可以获取足够精准的深度数据,相当于是一颗「辅助镜头」。前不久,第三方相机应用Halide的开发者BenSandofsky解释为什么新iPhoneSE采用了和iPhone8一样的单镜头规格,但却可以做到后者所无法实现的人像拍照模式。
拆解的情况证明,iPhoneSE和iPhoneXR的摄像头并不一致,导致了两者在技术上存在差异。
新iPhoneSE,由于它的传感器过于老旧,Halide称它无法依靠传感器来获取视差图,基本只能靠A13Bionic芯片所提供的机器学习算法,去模拟和生成深度数据图。在新iPhoneSE上,配合A13芯片所提供的全新算法,我们则得到了一张完全不同于XR的深度图。它不仅正确识别出了小狗的耳朵和整体轮廓,还针对不同远近的背景做了分层处理。
这种深度图并不是100%准确的,新iPhoneSE在拍摄非人脸题材的虚化照片时,抠图和虚化的精准度明显没有拍人像时来得精准。
尤其是在一些主体和背景图十分模糊的情况下,此时多摄像头的优势会更明显些。在新iPhoneSE上,尽管同样有分层处理的结果,但被摄主体和背景已经完全融在了一起,后期虚化时自然会比iPhone11Pro差不少。
这也是为什么,现在新iPhoneSE使用iOS自带相机应用时,只有在检测到人脸的情况下,才能启用「人像模式」拍虚化照片,其余情况则会出现错误提示,这点和之前的iPhoneXR一样。
温馨提示:答案为网友推荐,仅供参考
相似回答