我戴上苹果头显 Vision Pro,找到了它的杀手级应用
这是第一次,我感觉到文字的匮乏与无力。
WWDC23 第二天,我代表爱范儿,成为了这个世界上最早体验到 Vision Pro 的一批人。由于现场不允许录像录音,面对这样一台高维的计算设备,我只能用两位数的字节,为大家勾勒一些仅有的想象空间。
Q:佩戴前需要怎样的准备工作?
为了这次 Vision Pro 的媒体 Demo,苹果在 Apple Park 西北区域搭建了一个名为 Fieldhouse 白色房子,虽然是临时区域,但我丝毫看不出这是移动板房。
进场后,热情的苹果工作人员示范我如何完成准备工作,用 iPhone 扫描了面部信息和耳廓信息,面部信息用于挑选最适合面部的眼罩,过程非常类似 iPhone FaceID 的录入,耳廓扫描用于校准空间音频的体验,只需左右 90° 转头。整个过程不到一分钟。
Q:近视眼用户影响吗?
不影响。
我自备了隐形眼镜。不过在现场,工作人员根据我的眼镜镜片测量出度数,定制了一幅镜片,镜片通过磁吸吸附在 Vision Pro 眼罩内部。
▲蔡司定制镜片
Q:如何佩戴 Apple Vision Pro ?开机要进行哪些设置?
Vision Pro 的眼罩通过磁吸吸附在机身上,可以更换,由于我面如脸盆,眼罩不算太贴合,和大多 VR 设备一样,鼻梁下方会有漏光。工作人员说,零售版会针对更多脸型做眼罩适配。
佩戴时,工作人员会建议捏住眼镜中间较窄的区域进行佩戴,避免手指污染摄像头。
头梁右后方有一个旋钮,用于调节头部松紧程度。
与官网及宣传片不同的是,机身顶部还安装了一根绑带,用于分摊重量,但不免会压垮发型。
机身左后方,有一根一米多长的白色编织线缆,连接外挂电池。外挂电池提供两小时续航。
不过在续航能力的桎梏下,我反倒觉得,这种分拆式是现存较好的方案。
外挂电池不可拆卸,估计有变压电源的作用,但配备了 Type-C 口,可以通过外部电源持续供电。
佩戴后,机器需要首先对眼球和手势进行设置,Vision Pro 干掉了手柄,完全依靠眼球、手势和语音进行操控。
首先,我需要用眼神盯着屏幕中央接连出现的亮点,这些亮点构成了一个六边形,第一次是全黑环境,第二次环境会变亮。因为不同的亮度,人眼瞳孔的收缩程度不同。
手掌设置更简单,只需伸出双手。
然后长按机器右上角的数码旋钮,就完成了整个设置。
这时,屏幕就会出现 iOS 和 macOS 同款的动态 Hello 的画面,以立体的姿态漂浮在空中。
Q:Vision Pro 沉不沉?压不压头?
明显比 Quest Pro(722g)轻,可能与 Pico 4 Pro(458g)重量相仿,不会有明显压头的感觉。佩戴了半小时之后,我没有感觉到不适。
补充一下背景:本人头围 63cm ,即便放眼五公里也是翘楚的存在。
Q:沉浸感如何?
画面非常清晰,没有纱窗效应,完全看不出颗粒和像素,毫无疑问是我体验过最清晰的头显,用于阅读文档、浏览网页,完全没有问题。
穿透视野,即透过 Vision Pro 看外部环境效果,与我手上那台索尼 a7RIII 电子取景器看世界的清晰度相当,我甚至可以透过设备阅读手机屏幕。无论是色彩、清晰度、帧率都远胜于 Meta Quest Pro、Pico 4 Pro,但与肉眼所见的世界还是有很大区别。
穿透视野偶尔可见轻微的画面抖动,只要不是特别快速的转头,几乎感受不到延迟,我尝试快速在眼前挥动双手,才会出现一些「穿帮」,比如果冻效应,以及抠像不完整的问题。
画面边缘会有一些绿色和紫色的偏色,但不太容易注意到。
需要提及的是,现场的环境光还不错,暗光下未经测试。
在体验的半小时时间里,我没有出现眩晕情况。
关于 FOV(视场角),官方没有公布数据,就我自己不完全可靠的感受,可能与 Quest Pro、Pico 40 Pro 的 FOV 差不多,视野会有黑边遮挡,就像从望远镜看世界一样。
总体而言,我认为 Vision Pro 的沉浸感非常出色,是我体验过所有头显中当之无愧的 NO.1.
👓头显的沉浸感
头显的体验核心在于沉浸式,核心指标有:
- 分辨率:这个很好理解。
- FOV(视场角):视觉可以接受影像的角度范围。人类双眼视场角达到了约 188 度,只有正面 60 度人眼才能专注和聚焦,剩下约 128 度余光才是影响 VR 沉浸感的关键。
- 穿透视野(Passthrough field of view)允许用户在戴着头显的同时看到现实世界的影像。然而,穿透视野通常是通过相机传输图像来实现的,因此其质量和稳定性可能受到设备和摄像头的限制。
- 声音:声音的方位感。
- 延迟:我们还需要低延迟的内向型跟踪,以及与周围的世界「真实的」互动。头盔要能快速准确地感知和反应你头部的移动。当你向左转头时,屏幕中的视角也立即向左移动。如果这个过程有延迟,就可能会感到眩晕或者不适。
Q:如何使用眼球跟踪和手势进行交互?效果如何?
完成所有设置后,长按进入到主页面,圆形的应用图标,熟悉的味道。
眼球追踪和手势操控是相互配合的:眼球用于定位,相当于鼠标停留到哪里,而手势操作只有两种——打开、拖动。
其中,拇指和食指捏合的动作,就是「打开」,而捏合移动,就是拖动。
这中间有个小插曲:起初我会本能地把手指伸向空中的图形界面上操控,实际上我的手可以轻松地以任何姿态进行控制。
整套交互学习成本很低,一分钟就能适应。
眼球追踪的效果堪称惊艳:灵敏度、精准度、速度非常高,没有任何迟滞,我有种指哪打哪的感觉。
一个典型的例子是,工作人员让我注视屏幕底部的小圆点,来关闭页面,我一看,好家伙这么小,屏幕底部还有个距离非常近的横条(用于拖动窗口位置)。没想到,没有误操作。
这种极佳的体验还来自于视觉和音效的加持,当我目光聚焦于图形元素,图标会有很灵动的凸起、阴影的层级变化,甚至音效的配合。
而当我捏合手指甩动出去,窗口也会像真实世界的运动轨迹一样,极度丝滑。
事实上,眼动追踪并非苹果首创,但苹果是第一家将其完整地用于人机交互的公司。
Q:在 Vision Pro 上看照片体验如何?
相同的应用,完全不同的味道。我可以通过拖拽照片右下角的放大控件,把照片放大到整间屋子的尺度,在查看全景照片时,有种置身拍摄现场的感受。
Q:使用 Persona 时的效果如何?
苹果安排了一个提前设置好 Persona 的员工与我进行 FaceTime,接听电话后,视频界面犹如一个画框,里面有一位 3A 大作的主人公,拟真度还不错,但口型和面部肌肉还有一些不自然。虽然还谈不上很完美,但沟通的距离亲近许多。
Q:有什么印象深刻的功能?
眼动追踪和手势操控肯定算一个。
如果你从未有过 VR 体验,3D 相机想必也是可以让你惊呼的功能。
苹果给我展示了一些直接用 Vision Pro 拍摄的照片和视频。其中一段视频,是一个小女孩吹蜡烛,我能真实地感觉到蜡烛熄灭后的烟雾迎面扑来的感觉。
如果有什么场景可以类比,那就是哈利波特里的「冥想盆」。
类似的体验,其实在其他 VR 头显里也能有,但更高的清晰度,无疑带来了更好的沉浸感。
我认为这个功能可以称为 Vision Pro 的 Killer app,它的价值在于不仅仅能够观看,还可以拍摄创作。
从这个角度讲,它增加了信息传播的维度,比如工业设计师们开远程会议,就可以拍摄一张产品的 3D 照片,分享给对方。另一个人完全不用对着 2D 屏幕想象它在现实中的样子。
另一方面,这也是个非常戳中人性的功能,那些你无法割舍的人和物,那些留不住的空间和时间,都在一瞬间,真正意义上地被定格。
只可惜,现场不提供拍摄的体验,很好奇我的随手一拍,能否创造出官方样张同等的沉浸感。
Q:现实和虚拟的切换效果如何?
通过旋钮切换,可以调节沉浸感,可以理解在看虚拟内容时是否呈现外部环境,在处理空间交互上,苹果充分地借鉴了物理世界的感官体验,过渡的动效非常出色,有种逐渐遁入黑雾或者黑雾消散的感觉。
Q:这个旋钮还有什么用?
- 短按回到主页,类似 Home 键。
- 连按两次强制退出。
- 长按画面回正。
Q:观影体验如何?
苹果为我播放了一段《阿凡达》,画质清晰,3D 效果很出色,配合头部追踪的空间音频,也可以实现非常好的环绕音效,虽然还不及 IMAX,但已然超越了绝大多数电视的观影体验。
电影画面还可以切换成影院模式,类似电影院的观影效果,甚至还可以选择前后排座位。
苹果还为我演示了针对 Vision Pro 制作的 Apple TV+ 内容,片头会缓缓浮现一个立体感十足的苹果 logo,画面中有各种户外景观,比如海上冲浪、悬崖峭壁。
Q:有什么 AR 体验?
唯一一个称得上 AR 的 Demo 的是一段交互视频:墙面会缓缓拉开一个窗口,然后一只恐龙从墙外探出脑袋,当我走向恐龙,朝它挥手,恐龙会做出反应。
随后有一只蝴蝶从远处飞出,我伸出手指,蝴蝶便会停留在我的指尖。
Q:还有哪些有趣的细节?
观影过程中,当我把头转向身边交谈的人,这个人就会从画面中逐渐显影,请注意显影这个词,渐变非常丝滑。
Q:声音体验如何?
空间音频某种意义上成为了声音维度的 AR,当我转动脑袋,画面追随的同时,声音的方位也会发生相应变化,符合现实中的经验。
Q:还有哪些官方应用的体验?
「正念」,虚拟呼吸的动效充满了整个空间,有一种把我包围的感觉,配合空间音频,犹如身处 Teamlab。
Q:Vision Pro 究竟是什么?
事实上,短暂的体验后,我不确定这是一台 MR 设备,还是一台顶级的 VR 设备:一方面它具备 AR 建模的底层硬件,另一方面它更多还是把桌面体验延续到了空间之上。
有趣的是,在这款产品的宣传视频里,苹果也没有提到 AR,而是更多强调「空间计算」的概念。
一种合理的解释是,苹果希望开发者在 AR 场景上发挥奇思妙想。
▲开发者制作的心脏 AR 模型
Q:适用场景有哪些?能否在户外使用?
主要是居家和办公环境,也比较适合在飞机或火车这种旅行场合。想像下把多个高分辨率显示屏「随身携带」到任何地方;想像下在星巴克写代码,在享受卡布奇诺的同时,获得完整的多个大屏幕的台式电脑体验。
这是空间计算最大的意义。
Q:官方宣传片是渲染出来的,实际体验和官方宣传片有何差异,会不会像当年 Google Glass 那样?
整体拟真度很高,但沉浸感不如渲染视频呈现的那么好,因为视野仍然可以看到黑边,眼罩下方的漏光也会立刻把我拉回现实。
涉及 3D 影像的体验,我认为效果超越宣传片。这就好比,你无法用手机感受到 3D 电影院的震撼。
Q:佩戴是否觉得奇怪?
总体上,我不确定人人能否接受佩戴一副外挂眼镜,也不确定它能否像 AirPods 一样经历设计的舆论反转进而成为一种 meme。
大家可以扪心自问愿不愿意戴着它坐在星巴克窗边,享受路人讶异的目光。
Q:Vision Pro 有一块漂亮的外屏,它有什么用途?
苹果不希望头显隔绝了用户和外界的交流。当有人在附近时,Vision Pro 的外屏就会变得透明,让周围的人看到用户的眼睛。
比如你在看 App,周围人能知道你可以看到他们。但在完全沉浸时,面罩变得一片模糊,周围人就知道你看不见他们了。
这个功能叫 Eyesight,充分彰显了苹果的人文属性。
遗憾的是,我无法看到这块屏显示了什么。
Q:Vision Pro 能否成功?
无论 Vision Pro 定位 MR 还是空间计算设备,本质上还是个可穿戴产品,这类产品首要解决的问题是用户心理、生理上是否愿意佩戴,能否长时佩戴。这一点还有待观察。
第二点,它带来的独特价值能否抵消佩戴的负担。这里的独特价值并不包括进入到新平台产生的新鲜感,而是真正留住用户的 killer app。
浏览网页、看电影,这些在我看来更多还是新瓶装旧酒,锦上添花,逻辑上并不足彻底颠覆电视、电脑的传统体验。
但「3D 相机」绝对称得上是 AR 平台的原生应用,在彩色影像诞生一百年后,我们终于可以通过另一种显示技术,定格时间。
不同于其他 app,3D 相机是专属于这个平台的独特体验,你无法在任何传统媒介上还原这样的感受。
人文价值,往往是技术成功最底层的原因。
欢迎进入新的宇宙
Vision Pro 是苹果在个人计算领域的集大成者,我可以在这个产品上看到苹果过去十年在人机交互、技术布局的诸多影子——图形界面、Apple Silicon、空间音频、FaceID、LiDAR…
它是现存最好的头显 :它带来了有史以来最高的画质,革新了家庭影音娱乐体验;它彻底干掉了头显的手柄,用最自然的方式提供了革命性的空间交互;它让内容创作脱离二维平面,让定格时间和空间成为现实。
即便它叠加了如此多尖端技术,但它仍然具有无法回避的缺点:
它仍然不够轻盈,能否吸引用户持续佩戴仍然存疑;
它仍然是一个室内移动设备,LiDar 的距离决定了它并不能在户外空间使用;
外挂的电池,想必这是现有科技下的最优方案,但也能立刻把你拉回把随身听踹在裤兜和背包的年代;
它还没有太多基于现实环境的应用,在拓宽信息输入和输出的边界上,还缺少一些 Killer app。
与其说这些是缺点,不如说它对抗的是时间。
Vision Pro 至少它让我看到了一种可能性,一种让计算无处不在的可能性,一种不依赖智能手机的可能性,一种让科幻不只是科幻的可能性。
欢迎进入新的宇宙。