图七,图片来自 Up 主消失的模因视频截图
由于凸透镜的作用,屏幕的成像距离也被调整,如 Quest 2 的像距在 1.3 m,已经能够满足人眼的观看范围了。
不过,由图六可知,人眼与透镜、透镜与屏幕间,都需要保持合适的距离。如果透镜离人眼过近,像距也会被拉近,从而不能满足人眼的观看范围。如果透镜过远(仍要小于焦点),那整个设备的体积又会增大。
透镜的距离也影响着 FOV 的大小。这里要再稍微解释下 FOV 的概念,一般我们所谈论的都是水平 FOV(field of view),是指屏幕被透镜折射,最顶部和最底部的两道光线射入人眼所形成的夹角。
FOV 越大,人在屏幕中所看到的虚拟视野就越大。但问题在于,想要增加 FOV,要么把透镜后移,让其更靠近人眼,或者增加镜片的厚度。透镜后移,会导致像距被拉近,不能满足人眼的观看需求;增加镜片厚度,又会导致设备整体过重,并且同样的,像距依然会有问题。
实际上,FOV 并不是越大越好。现实世界中,人正常聚焦的视野范围一般在 110°,如果物体出现在 110° 外,人一般要转头去看,增加疲劳度。所以,只要保证 FOV 在 110° 左右,其实也就够了。
另一方面,透镜所呈现的放大版屏幕,实际上是原来屏幕的投射,屏幕分辨率是没有变的,FOV 越大,对屏幕分辨率要求就越高,差的屏幕甚至能看到像素点。从工程学而言,找到 FOV 同屏幕、透镜厚度、设备整体尺寸的平衡关系,才是实际的难点。
3)透镜的演变
在实际工程中,透镜的演变,或者说 VR 中光学方案的演变,大体可以从非球面镜片到菲涅尔镜片,再到 pancake 折叠光路。
图八,图片来自网络
一般的球面镜片,镜面各处曲率相同,所以光从镜片折射出来,会聚焦在不同的位置,也因此导致模糊和外围失真的情况,这种现象被称为球面像差;非球面镜片就是在球面镜片的基础上,改变表面的曲率,使得折射出来的光能够汇聚在一点上。这样,球面像差的问题就能得到缓解或消除;但非球面镜片有个问题,它太重了。
于是菲涅尔镜片被搬到了 VR 中,简单来说,透镜的主要作用是为了折射光线,而透镜中存在一部分区域不折射光线,既然如此,直接把这部分拿掉,也完全不影响透镜的功能。菲涅尔凭着这样的方式,减了一波重量。
但菲涅尔镜头各处曲率不变,焦距无法进一步被压缩,整体仍然较重,VR 眼睛也无法做得轻薄;同时由于曲面不连续,成像精度受限。非球面和菲涅尔镜头,都是采用平行光路的方案(光从透镜中透出,进入人眼)。想要再轻薄,目前最佳的实践是采用折叠光路(拉近焦距,通过多重反射进入人眼,既缩小焦距又保证成像)。
pancake 的名字也反映出了它的结构,就是像饼干一样的四层镜片(各家有不同,如果用 micro led 会有五层),它的光学原理不必深究(反正也搞不懂),只需记住它的解决方案是通过折叠光路使得焦距近一步被压缩。
焦距被压缩,其实不单改变厚度,也改变了视场角,近大远小,焦距变短,那视场角就会变大。当然这只是理论上的(理论上限 pancake 可达 200°),现实中由于工艺的问题,pancake 方案的视场角还没有菲涅尔广,在 60 – 90° 之间,而菲涅尔可以达到 100° 左右,当然,离人眼的 120° 还有一段距离。
当然,pancake 也有自己的问题,因为有两次反射的原因,理论上 pancake 的入射光线亮度只有一开始的 25%,这就要求光源本身得很亮。
同时由于多路反射,容易出现鬼影的情况,对工艺要求很高。但这些都是可解决的问题,平行光路有它的上限,如果要塑造沉浸感 便携的设备,折叠光路还是更好的方案。
由于 pancake 「损光」的特性,屏幕亮度就显得尤为重要,目前主流的搭配仍然是 Fast LCD Mini LED 背光 Pancake,但更理想的方式是 Micro OLED Pancake,相比于传统 LCD 的 500 尼特亮度,Micro OLED 的亮度可达 1000-6000 尼特。
另外值得一提的是,既然是折射,画面一定会失真。现行的光学方案都是先让屏幕中显示的画面先失真(桶形畸变),再通过透镜折射恢复正常(透镜会通过枕形畸变将桶形畸变的图像恢复正常)。
图九,图片来自 POMEAS
4)沉浸感的实现
如果说凸透镜解决了近眼成像和视觉放大的问题,那么还留存着一个尚待解决的问题:深度感知。这也是实现 VR 沉浸感的关键。
解决方案其实再简单不过,只需在透镜前放置两块屏幕(或一块屏幕隔成两块),分别呈现同一图像的不同成像角度即可。
图十,图片来自网络
人眼是个非常神奇的存在,本质上当我们看向三维物体时,左右眼看到的其实是同一物体的不同角度的平面成像图像。当两种不同角度的图片到达人脑后,人脑内置的视觉算法可以自动将两张平面图片合成一张立体图片。
VR 成像,由于所有的内容都只呈现在屏幕上,而屏幕是平面的,所以无法像真实的三维物体一样,由于视差(两眼看到的角度差异)的存在而感受到立体感。所以,一不做二不休,干脆在两块屏幕上呈现同一物体的不同成像画面,利用大脑的自动合成功能,模拟立体感知。
虽然,双目视差的机制让 VR 眼镜能够模拟三维影像的立体感。但沉浸感除了立体,还有对于深度信息的感知。简言之,怎么区分物体离我们的距离。
5)远近感知
人眼感知世界的方式,主要依靠四种机制:
- 双目汇聚(vergence)
- 双目视差
- 单眼调节(Accommodation)
- 大脑补充
其中,双目汇聚、单眼汇聚和大脑补充都能帮我们感知到世界的远近信息。在日常感知中,大脑补充其实是最为常见的体验,因为我们在观看视频时,视频画面本身是 2D 的,可我们却能从中判断出物体的远近,很重要的原因就是大脑补充。
大脑补充,简言之即人脑根据经验的总结,通过一些画面线索进行的距离判断,比如近大远小(学名仿射)、遮挡关系(近处遮挡远处)、光照阴影、纹理差异、先验知识(比如飞机和风筝同样大,但飞机比风筝远)。这些知识学过画画的同学不会陌生。
双目汇聚(vergence),简单理解,是指两只眼睛看向同一物体,这个过程需要转动眼球肌肉,使得双眼聚焦同一物体。当物体靠近或远离眼睛时,汇聚角(图中所示的夹角)也会变大缩小,同时眼部肌肉会收缩或放松。也即,通过感知汇聚角的范围和睫状肌的紧张程度,人眼可以分辨物体的远近。