Apple 的这种机器学习驱动的成像版本被称为 Deep Fusion,它可以帮助您使用 iPhone 拍摄更好的照片。现在有了iPhone 14系列,这家库比蒂诺巨头正在将其 Deep Fusion 功能推向一个全新的水平。改进后的照片处理堆栈被称为“光子引擎”,它进一步提升了最新 iPhone 机型的低光性能。
Deep Fusion 本质上是一个由 Apple Bionic SoC 的神经引擎驱动的图像处理系统。手机相机拍摄九张照片(两组,每张四张,在按下快门之前)和一张较长时间的曝光(在按下时,在不同的快门设置下)。然后,图像处理系统会自动查看这些照片并选择最佳组合并将它们合成以提高清晰度。现在,通过机器学习将同一张照片的多个版本拼凑在一起听起来很简单,但 Photonic Engine 比仅仅拼贴要复杂一些。
根据 Apple 的说法,每当你在低光照条件下使用新款 iPhone 拍照时,Deep Fusion 图像处理算法都会比以前更早地投入使用。因此,您可以以更好的色彩和更丰富的细节捕捉这些照片。该公司声称,由于增强的图像处理管道,新款 iPhone 14 系列的超广角和自拍相机的低光性能提高了 2 倍,主相机的低光性能提高了 2.5 倍。
相机领域的另一个显着改进是在 Pro 变体中包含 48MP 主传感器。这意味着iPhone 14 Pro 和 iPhone 14 Pro Max可以利用像素合并将来自相机图像传感器上多个较小像素的数据合并为一个“超像素”,以提高低光灵敏度。一如既往,Apple 的非侵入式口头禅是 Photonic Engine 的指导原则。没有切换开关可以打开它;它可以在各种照明情况下启用,这些照明情况会因您使用的镜头而异。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun187595.html