您的位置:首页 >速报 > 综合速递 >

苹果计划为新iPhone添加后置3D传感器

Fast Company 援引了解 Apple 新款 iPhone 的消息来源写道,Apple 将在新款 iPhone 机型中引入后置 3D 传感器阵列。Apple 计划从 Lumentum 购买该阵列的激光组件,这家总部位于加利福尼亚的公司已经从该公司购买了当今 iPhone 中的前置 TrueDepth 激光器。

该出版物的消息来源称,苹果工程师已经为这款后置 3D 摄像头工作了两年,目前计划在今年晚些时候将其包含在至少一种型号中。然而,时机仍然可能改变。

在 2020 年的旗舰手机中包含此功能的并非只有 Apple。三星上个月刚刚发布的新款Galaxy S20+ 和 S20 Ultra配备了后置飞行时间 (ToF) 传感器。它们用于实时对焦(这是照片中的可选模糊效果)和快速测量(允许用户测量他们面前的物体)。

不过,Apple 在为第三方开发人员及其自己的软件团队开发用于创建新体验和功能的 API 和工具方面取得了更大进展。

苹果在 2017 年在 iPhone X 中引入了类似的前置 TrueDepth 阵列。其主要功能是 Face ID,它会扫描用户的面部以对其进行身份验证,然后解锁对设备上的个性化文件和服务的访问权限。它还用于 Animojis 和 Memojis,这是 Messages 应用程序中某些人使用的动画化身。

然而,这项技术仍有很大的潜力尚未开发。Apple 为开发人员提供了在他们的应用程序中使用 TrueDepth 功能所需的工具。有一些应用程序,但它们大多是噱头和游戏,比如 Nathan Gitter 的Rainbrow。

Apple 可能希望将这些传感器添加到设备后部将激发新的、更有用的应用程序。然后是明显的增强现实连接。

Cupertino 于 2017 年推出了 ARKit,这是一组可供开发人员在 iOS 上制作增强现实应用程序的工具和功能。我们在 2018 年推出 ARKit 2 后写了一篇关于它的详细解释。最新版本是ARKit 3,于 2019 年底与 iOS 和 iPadOS 13 一起推出。ARKit 3 引入了人物遮挡、内置动作捕捉工具、多面跟踪以及多个用户在同一 AR 环境中同时工作的能力,除其他事项外。

苹果公司首席执行官蒂姆库克此前曾表示,他相信增强现实在某个时候将成为类似于 App Store 推出的分水岭,并且有大量证据表明该公司一直在内部开发 AR 眼镜产品。本周早些时候,9to5Mac声称在泄露的 iOS 14 代码中发现了新的 AR 应用程序的证据,以及后置 ToF 传感器也将用于新 iPad Pro 型号的迹象。该应用程序将允许用户在他们周围的空间中获取有关产品和其他物体的提示信息,并将在苹果商店和星巴克门店使用。

到目前为止,iPhone 上的 AR 应用程序依赖于较新 iPhone 背面的多个传统摄像头之间的深度差异来处理深度,但这并不像这种新传感器阵列所允许的那样精确。在 Fast Company 的文章中,Lumentum 副总裁安德烈·王 (Andre Wong) 表示,AR 应用程序并没有大行其道,部分原因是缺乏这种深度感应能力以及这对体验质量的意义:

当你在没有深度信息的情况下使用 AR 应用时,它会有点小问题,而且没有它最终的强大......现在 ARKit 和(谷歌的)ARCore 都已经推出一段时间了,你会看到新的 AR 应用即将推出他们在空间中放置对象的方式更准确。

引入这些更精确的工具几乎肯定会改善 iPhone 上的 AR,但这可能还不足以打开库克预测的分水岭。在手机上使用 AR 体验仍然有些尴尬,而传闻中的眼镜产品可能需要成功才能开始开发人员的淘金热。

不过,与此同时,Apple 似乎仍然专注于 AR,构建硬件和软件功能和技术,让开发人员能够进行实验并将新想法带入 App Store。正如我们在 ARKit 2 解释器中所写的那样,这是一场漫长的游戏:需要大量精炼的 API 和工具来促进第三方开发人员在眼镜产品中快速采用 AR。现在在公认有缺陷的 iPhone 平台上构建所有这些意味着苹果可以在其眼镜最终进入市场时开始运作。

与此同时,新的后置传感器可能会启用一些简洁的新相机功能,这是苹果与三星等使用 Android 的竞争对手之间功能军备竞赛的主要战场。

免责声明:本文由用户上传,如有侵权请联系删除!