iPhone 的「第四颗摄像头」位置,为什么给了激光雷达?
一个,两个,三个,四个……旗舰手机摄像头从 2016 年开始,以大约每年 1 个摄像头的数量在增长,有人调侃说麻将「八筒」将是所有智能手机摄像头的终极归宿。
今年全新一代 iPhone 发布前,不少人推测 iPhone 12 Pro Max 会配备第四颗摄像头,没想到 iPhone 12 Pro 系列在宝贵的「第四颗摄像头」位置,放置了一颗 LiDAR(激光雷达)。
不按「常理」出牌,一直是苹果的「常理」。
LiDAR 是什么?
▲ iPhone 12 Pro 系列手机摄像头模组右下方圆形黑色区域即为 LiDAR
LiDAR 的全称是 Light Detection And Ranging,中文名激光雷达,是以发射激光束探测目标的位置、速度等特征量的雷达系统,由激光发射机、光学接收机、转台和信息处理系统等组成,可获得目标的距离、方位、高度、速度、姿态、甚至形状等参数,从而进行探测、跟踪和识别。
抛开专业术语,通俗理解 iPhone 12 上的 LiDAR,它就是一个能探测物体距离和记录深度信息的微型装置,和手机摄像头差不多大小。
工作的时候,LiDAR 可以实现两个重要功能。
1. 测算物体离手机的大致距离
▲ 通过发射肉眼不可见的激光束来测算距离
2. 记录投射范围内事物的深度信息
目前苹果给出的 LiDAR 范围是最远五米,也就是说,搭载 LiDAR 的 iPhone 12 Pro 系列手机,理论上可以测算和记录 5 米范围左右的距离和深度信息。
LiDAR 和 ToF 区别在哪里?
说到估算物体距离和记录深度信息,不少安卓厂商早在部分机型上搭载了 ToF(Time-of-Flight,飞行时间)传感器来实现这两个功能。
例如 P40 Pro 有一颗 3D 深感摄像头(ToF),可以深度感知物体深度信息,实现大片般的景深效果。
目前部分手机厂商大多采用 iToF(间接飞行时间传感器),而 LiDAR 属于 dTof(直接飞行时间传感器)。
iToF 和 LiDAR 虽说都是 ToF,但区别不小。
第一,发出的「信号」不同。
iToF 发出的是经过正弦波调制,明暗强度呈规律变换的光信号。LiDAR 发出的是激光束。
▲ dToF 原理
第二,估算距离的原理不同。
iToF 靠感知正弦波光信号的差异来「估算」其从发射到反射回来的距离。LiDAR 是激光直接测算距离。
▲ iToF 原理
第三,精度范围、测算速率和抗干扰能力不同。
iToF 的信号很容易被干扰,测算精度随着距离变远而下降,测算也相对较慢,比较适合用于厘米范围内的测距。
LiDAR 的激光束抗干扰能力强,理论上测算精度不随距离变远而下降,测算更快,更适合远距离测距。
最后, iToF 更易小型化,dToF 集成小型化难度更高,所以两者有较为明显的商用场景差异,iToF 大多数用在手机上,dToF 比较常用在汽车和无人机等大型装置上。
▲ 汽车雷达
LiDAR 比 iToF 快、准、远,但集成难度更大,成本更高。苹果能把 LiDAR 集成在 iPhone 12 摄像头模组里,想必是花了一番心思的。
为什么苹果选 LiDAR?
或许 iPhone 有一天会变成四五六摄手机,但在被人讨论「iPhone 拍照掉队了吗」的紧要关头,选择把宝贵的「第四颗摄像头」位置给 LiDAR,足以可见苹果对未来的布局多么重视。
苹果究竟想干嘛?
iPad Pro 2020 的官方网页上,苹果直截了当给出了答案,LiDAR 现阶段主要就是为 AR(Augmented Reality 增强现实)服务的。
在手机摄影几乎到天花板的时刻,苹果选择了一条和其它厂商不一样的路,没有选择上高像素和多倍光学变焦,而是加了 LiDAR,让用户记录「深度信息」。
用户能记录深度信息的好处非常明显,我把它总结为「双向融合」。
一个是现实虚拟化,也就是 AR,可以用摄像系统和 LiDAR 把现实事物的各种信息记录下来,再虚拟展示在屏幕上,从任意角度近距离观察,也打破了时间和空间的限制。
▲ 没有 iPhone 12 的深度信息,也就不可能使用 AR 观看虚拟 iPhone
另一个是虚拟现实化,也就是 VR,可以给虚拟的事物增加现实维度的信息,让虚拟事物在网络里「活」出现实事物的特征。
▲ 动态 emoji 可以看做简化版的 VR,虚拟人物有了真实人物的面部深度信息数据
这两种融合都离不开深度信息,深度信息也是 AR 和 VR 打通的桥梁,比如老师用可以记录深度信息的 AR 设备自拍直播教学,学生戴上 VR 眼镜听课,每个学生看到的老师都是虚拟形象,但虚拟形象的表情和动作细节特征都是一样的,很难再单纯用 AR 或 VR 简单描述。
▲ 电影《头号玩家》展现了现实和虚拟的融合,推荐配合本文「食用」
再来说说手机
手机对于人类社会来说是什么?
这个问题很难回答。往小了说,它不过就是一台便捷的通讯工具,往大了说,它对人类社会的影响可以说无比深远。
回顾手机出现之后的人类历史,用户对信息处理交换的共性需求一直是去中心化。
一开始用户的共性需求是提升信息交流效率,所以手机的核心功能是打电话发短信。信息交流的中心节点 —— 被线绑住的固定电话、邮件、传真、邮电等被彻底边缘化,如今只是一种特殊场景下的补充工具。
▲ 被电话线拴住的中心
接下来用户的共性需求是打破信息不平衡,进一步去中心化,每个人都想要有自己的声音,所以手机的核心功能变成了社交,大量社交 app 异军突起。
正是由于苹果的全触屏形态产品 iPhone,在恰当的时机精准高效地解决了用户在第二阶段的共性需求痛点,苹果才能打败诺基亚,一跃成为市场综合第一名。
现在,用户的共性需求会是什么呢?
用户需要进一步去中心化,不仅要发声,还要把自己的个体文明尽可能记录并传递下去,让自己的个体文明在人类文明史上留下记录。
▲ iPhone 广告片展示 iPhone 的生活记录功能
很久以前,芸芸众生是没有历史存在感的,更不能掌握记录自身的工具。手机的出现,让存储在服务器上的数据变成了「个人史书」,这些渺小如蝼蚁的「个人史书」又发挥着无与伦比的影响力,共同组成了一部人类「大史书」—— 人类社会共同的大数据库,个体不再是历史里可以直接忽略的「无名」,也不是可以大笔一挥一笔勾销的某某,而是在人类共同「大史书」里一个个有血有肉的鲜活存在。
现在,LiDAR 给了我们更高维度的「书写」能力,在声音、平面图像、行为习惯等维度之上,增加了深度信息,突破了平面限制。
永生,从深度信息开始
对于普通用户而言,目前 LiDAR 带来的直观帮助还不是很明显,更多属于「有更好,没有也没多大影响」的程度。
它带来的潜藏益处却是非常明显的,如果条件和相机 app 允许,每个人一生中经历的每个场景,每个瞬间,遇到的每个人,看过的每朵花,摸过的每件餐具,每张自拍,都可以被 LiDAR 记录下深度信息,只要时机和技术成熟,数据量足够大,再配合以声音、图像、行为习惯等数据,完全可以在服务器中创造出一个虚拟的世界和虚拟的自己,和真实的世界和真实的自己一模一样,甚至等待科技水平足够高的那天,可以在现实世界中造出一个自己。
▲ 如果《西部世界》里的机器人都有一个对应的真实人类,那么拿到真人的深度信息则是制作机器人的第一步
如果哪天科技更加发达,可以赋予这个虚拟的自己一套「人性的算法」,百年之后,有人想我们了,只需要进入虚拟世界,就能看到一个「活着」的我们,何尝不是做到了另一种形式的永生?
注:本文部分内容曾以不同笔名在其它平台发表过,文内有删改