这些年,智能手机的影像能力一直在不断突破,但受限于轻薄机身和镜头模组的物理厚度,想再大幅提升画质已经越来越难。而最新消息显示,苹果正在研究一项革命性的感光元件技术,打算用「超表面」结构替代传统微透镜,给未来iPhone的相机打开一条全新的升级路线。这项技术已经出现在苹果的公开专利中,一旦落地,有望同时改善弱光拍摄、色彩还原和自动对焦表现。

按照专利描述,苹果这款新型感光元件采用像素阵列+色彩滤光层+超表面层的三层结构。传统相机传感器,会在每个像素上方放一颗微透镜,只负责把一定角度的光线聚到下方的光电二极管上。而新方案则是在滤光层上方,加入一层极薄的超表面结构,上面布满精细的纳米柱,可以根据不同波长,把红、绿、蓝三色光线精准引导到对应像素,甚至能让光路部分重叠,实现传统玻璃透镜很难做到的灵活光控。

这项技术最大的亮点,是可以针对不同颜色单独优化分辨率和感光度。在传统的拜耳阵列里,绿色像素数量最多、感光能力最强,红、蓝像素则相对偏弱。而通过超表面结构,苹果可以直接给红、蓝像素分配更大的受光面积,在不扩大物理像素的前提下,提升弱光表现、减少噪点,同时降低后期白平衡修正的依赖,让色彩更自然、更真实。
除此之外,这份专利还重点提到了对**相位对焦(PDAF)**的优化。传统PDAF需要牺牲一部分像素和微透镜结构来检测相位差,而新一代超表面结构对光线角度更敏感,可以在不降低像素密度的情况下,提供更高的对焦灵敏度和更广的入射角度,尤其适合弱光、低反差场景,对焦速度和精度都有望明显提升。

因为超表面本身非常薄,整个感光组件的厚度不但不会增加,反而可能做得更薄——这对早已被镜头凸起困扰的智能手机设计来说,意义重大。专利中也提到,这项技术不只适用于iPhone,还能用于iPad、Mac以及各类穿戴设备,在多摄系统里还能进一步提升设计自由度,要么做得更薄,要么实现更强的影像差异化。
当然,目前这项技术还停留在专利阶段,并不代表会马上量产。苹果一向习惯先公开关键技术,再等产业链成熟后逐步落地。但可以看出,在计算摄影渐渐摸到物理天花板之后,苹果已经把重心重新放回底层硬件革新上。从高动态堆栈传感器、可变光圈,到这次的超表面结构,都在说明一件事:苹果正试图从感光元件本身,重新定义iPhone的影像体验。