首页 > 数码 > iPhone

未来iPhone可能会在图像传感器上对视频进行预处理

苹果公司正在研究如何减少iPhone或其他设备在图像传感器本身上的处理能力,以产生高质量的视频,目的是节省文件大小和电池电量。
2020-08-07 09:35

苹果公司正在研究如何减少iPhone或其他设备在图像传感器本身上的处理能力,以产生高质量的视频,目的是节省文件大小和电池电量。当前,iPhone,iPad或任何其他设备的相机都具有可以记录所有接收到的光的图像传感器。然后,视频数据被传递到处理器,该处理器创建图像。但是在主设备的CPU上进行的此类处理将非常耗时,并使设备的电池快速耗尽。

苹果公司的一项名为“使用事件摄像机生成静止图像”的美国专利申请表明,苹果公司建议仅处理自上一帧以来已更改的视频图像部分。传统的相机使用时钟图像传感器来获取场景中的视觉信息。通常,以某种方式对记录的每一帧数据进行后处理。在许多传统的相机中,每帧数据通常都包含所有像素信息,这会导致冗余,并且随着场景中动态内容数量的增加,冗余通常也会增加。随着图像传感器利用更高的空间和/或时间分辨率,帧中包含的数据量可能会增加。换句话说,由于iPhone相机具有更高的分辨率,并且人们使用它们来录制更长的视频,因此处理的数据量将会增加。
具有更多数据的帧通常需要额外的硬件和电源,这往往会增加复杂性,成本和/或功耗。在电池供电的移动设备上执行后处理时,具有更多数据的后处理帧通常会更快地消耗移动设备的电池。该Apple专利描述了一种用于事件摄像机指示单个像素变化的方法。它不能捕获所有内容。摄像机输出的数据响应其视场的变化。通常,在处理图像并将其制成JPEG或类似格式时,会丢弃未更改的像素,这会使文件变小。在苹果公司的建议中,这些像素甚至不会到达处理器。

苹果公司表示,尚未记录其强度变化的像素将不会产生任何数据。因此,对应于静态对象(例如,非运动对象)的像素将不会触发像素事件传感器的输出,而对应于可变对象(例如,运动对象)的像素将触发像素事件传感器的输出。

本文来自投稿,不代表公社网立场,转载请注明出处:http://www.gongshe99.com/digital/1211512.html