苹果拍照新技术_ 拍照超越安卓?解密苹果11摄像头背后隐藏的技术

尽管史蒂夫·乔布斯时代的惊讶已经没有了,但每年都不得不说新的iPhone被期待着。 前几天发布的iPhone 11最大惊喜是除A13处理器以外的照相机,例如iPhone 11 Pro系列后面的3个照相机都是1200万像素,其左上方的照相机是广角镜头,等效焦距26mm,光圈f1. 8,6片镜头,OIS光学

其实,苹果的照相机硬件升级只是为了拍照的小的优化,首次使用Deep Fusion这个新技术是最大的优化。 Deep Fusion利用苹果机器学习的进步,可以拍出更好的照片。 与谷歌Pixel上的相机一样,该功能使用机器学习更好地解读图像,创造出更漂亮的场景。

9月15日,媒体对Deep Fusion进行了详细的解读,宣布了以下的老编辑Deep Fusion是如何工作的,将给拍照带来具体的好处。

实际上,打开苹果的照片应用程序时启动了几列照片算法。 照相的时候只按快门,实际上照相的组合是9张,这9张包括4张即时照片、4张子照片、1张长照片。

前8张照片实际上是iPhone 11在按快门前拍的,一按快门,iPhone就会为你的被拍摄体拍摄长曝光照片。 请注意,此处的“长时间曝光”主观是智能手机照片的标准快门速度,很可能是1/2秒或1/6秒以下。 长时间曝光照片拍摄结束后,苹果公司的A13仿生引擎开始工作。

神经引擎可以从2400万像素的统一数据中制作整个图像帧,从9张照片中自动选择最好的。 更详细地说,已经训练了神经引擎算法,可以从已经拍摄的9张图像中选择用于最后一张照片的各像素的最佳像素。

深度融合的基本任务是改变每张照片的曝光时间,因此神经引擎对每个像素都有广泛的指标。 基本上,单击图像A13 SoC的神经引擎可以确定与最佳对比度、锐度、保真度、动态范围、色彩精度、白平衡、亮度和图像相关联的其它因素。 因为相机本质上具有更宽范围的可变元件,所以深度融合技术应当理想地产生具有更高动态范围、更高级别的复杂细节、优良低光图像、低噪声和高精度颜色的图像。

另一个优势是低光照,苹果在广告中宣传了自己的夜间模式。 在弱光下,苹果公司把长曝光图像的亮度优势和短曝光图像的稳定性、细节性和正确性结合起来,制作长曝光图像,在保持稳定性的同时,没有产生模糊的摄影效果,在黑暗中向被摄物提供良好的光。 在这些条件下,深度融合可能显示最大威力。 因为在白天,苹果的算法取决于能否正确判断颜色。

以上是苹果在发布会上大胆说明自己的产品在拍摄照片方面的优势勇气的地方,Deep Fusion不是苹果的第一次,而是3年前索尼在过去的旗舰产品索尼Xperia Z5上预测性地拍摄的照片,过去总共拍摄了4张照片。 三张照片是在按快门前拍的,另一张是在按快门时拍的,应该注意是不是很熟悉。

不幸的是,索尼在当时的照片软件中最佳化很严重,每次按下快门时都会出现卡特琳,照片应用程序会直接固定下来。 因此,尽管是最先用智能手机计算出来的人工智能照片制造商之一,索尼还是不能像480和960fps的超慢动画那样充分利用它。

( iPhone 11 Pro Max摄影)

苹果为什么选择这项技术? 其实在某种意义上,Deep Fusion是对受到关注的谷歌Pixel照相机的反应,Android的制造商用过去几代的Pixel智能手机拍摄了计算照片。 媒体等说iPhone拍摄迟到了,苹果公司发表Deep Fusion似乎是无言的反应。

*有些照片来自互联网。 如果有侵害的话请删除。 非常感谢你

大家都在看

相关专题