可以说关于iPhone新一代机的发布越来越近了,网上和各代媒体对于iPhone新机的爆料也是“层出不穷”。根据彭博社报道,苹果目前正在和英飞凌、索尼、意法半导体和松下等制造商讨论,希望在 2019 年款 iPhone 上使用 ToF 技术打造 3D 后置传感器。苹果打算让 iPhone X 前置的 TrueDepth 传感器继续沿用,当后置的 3D 传感器也搞定之后,拥有前后双 3D 传感的苹果 iPhone 将成为现有技术条件下最好的 AR 设备。
iPhone X 的 Face ID 之所以备受瞩目,原因就是前置 3D 传感器可以生成精确的 3D 图像,完成 Face ID 智能认证和 Animoji 功能。但前置传感器主要作用是拍脸或者自拍,想要实现更进一步的 AR 效果,得依靠后置镜头和后置传感器。
于是现在苹果的把发展的目光盯在了后置传感器上,根据报道,苹果后置 3D 传感器打算采用飞行时间(Time of Flight/TOF)技术,即传感器发出经调制的近红外光,遇物体后反射,传感器通过计算光线发射和反射时间差或相位差,来换算被拍摄景物的距离,以产生深度信息,此外再结合传统的相机拍摄,就能将物体的三维轮廓以不同颜色代表不同距离的地形图方式呈现出来。
更AR的AR。
虽然与 iPhone X 前置传感器目前使用的结构光(Structured Light)技术不同,但前后两个传感器,都是为 AR 服务的,而且后置 3D 传感器在 AR 的应用更频繁也更常用。
现在的手机 AR 效果,主要利用普通的手机摄像头加上惯性测量、陀螺仪等传感器来实现,或许大家在玩 AR 的时候都发现了,App 会提醒你必须在水平面上才会出现实景增强画面。比如你要玩一个 AR 游戏,就得让摄像头对准桌面,然后再在桌面上生成虚拟对象。而且,生成的画面也是水平放置的,很多时候,这个对象没办法摆出其他造型,比如竖直或者斜靠着其他物体。
利用 ARkit 生成的 iPhone X。
镜头发生移动,或者镜头对准的位置不符合“水平”这个条件的时候,AR 效果就会丢失。当然,生成 AR 对象也必然存在立体透视问题。
这就是现下普通手机摄像头的 AR 效果,也是未来后置 3D 传感器正好解决的问题。用上了 3D 传感器之后,iPhone 就可以获取深度环境信息,从而生成更具有立体感,和周围环境契合度更高的 AR 效果。直接了当的说,就是我们玩 AR 的时候,AR 画面变得更逼真,更有立体感,有纵深感。而且重要的是,不用弓着腰扎着马步在那寻找“最佳角度”,传感器+软件能够自己分析 AR 出现的最佳位置。
看起来好像很简单,但实际上是让移动 AR 向前迈进了一大步。当你为此惊叹的时候,它又只不过是 AR 进化过程的一小步。
先行者Tango。
大家都知道苹果 ARKit 正式上线后不久,谷歌紧随其后发布了 ARCore。
在 ARCore 之前,谷歌曾专注于另一个 AR 项目,那就是 Tango。Tango 和 ARCore 区别很大,主要是通过特殊硬件模组实现,采用专门的视觉计算芯片、摄像头、深度摄像头和传感器,为智能手机实现 AR 功能。
Tango 来自谷歌前沿项目实验室 ATAP,过去三年里一直很受关注,不过它仅仅被应用在了两款设备上,一个是联想的 Phab 2 Pro,另一个是华硕的 Zenfone AR。大家感兴趣的话可以搜一搜。
后置传感 Time of Flight 方案并不是苹果先想出来的,其实 Phab 2 Pro 已经用过了,Phab 2 Pro 背后的 1600 万主摄像头和鱼眼镜头中间,就是 TOF 传感器。
Lenovo Phab 2 Pro。
可惜 Phab 2 Pro 这个手机本身就没什么市场,推出后也无人问津,Zenfone AR 除了 VR 和 AR 之外更是毫无亮点,随着这两个硬件的昙花一现,Tango 项目不了了之,最后其硬件模组的技术被 DaydreamVR 头显追踪 World Sense 继承,而移动端被 ARCore 所取代。
后来者居上。
如果说 Tango 的“死因”在于支持设备太过匮乏,那么 iPhone 压根就不用担心这个问题。后置 3D 传感器实现之后,加上 ARKit 平台的支持,iPhone 装机量就可以撑起苹果的 AR 市场。硬件和软件趋于同步的发展布局让苹果可以从容地笑看对手,因为 Tango 没了,只留下 ARCore 单打独斗。即便是追随 iPhone 一样使用 TOF 传感器,还得面临产能问题。以上就是关于iPhone新一代机的资讯爆料,希望对大家有帮助。