文 | 传感器技术(WW_CGQJS)
戴上一副眼镜,连接电脑或手机,你就能进入一个全新的虚拟世界,这种类似科幻电影《黑客帝国》里的场景正在我们身边发生,而让这一切实现的技术就是最近火得不行的“虚拟现实”,也就是许多人口中的VR(Virtual Reality)。
虚拟现实(Virtual Reality,简称VR),即利用计算机发展中的高科技手段构造出一个虚拟的境界,使参与者获得与现实一样的感觉。
举一个例子,当你戴上特制的头盔与手套后,会发现你已置身于一个不受时空限制的历史的博物馆中,当你向前行走或者转头时,你所看见的景象也会随之改变,你可穿过大厅,推开前面的大门,当你看见一件精美的展品时,你甚至可以上上下下、里里外外仔细地观摩——这就是虚拟现实技术带来的真实感觉。
VR技术,是利用电脑模拟产生一个三度空间的虚拟世界,提供使用者关于视觉、听觉、触觉等感官的模拟,让使用者如同身历其境一般,可以及时、没有限制地观察三度空间内的事物。
使用者进行位置移动时,电脑可以立即进行复杂的运算,将精确的3D世界影像传回产生临场感。虚拟现实(VR),看到的场景和人物全是假的,是把人的意识代入一个虚拟的世界。
VR像做梦,看到的场景和人物全是假的,是把你的意识代入一个虚拟的世界。简单的来说,就是你看到的东西都是假的,但是你的感觉是真实的,它就会给你一种身临其境的感受。
人们在看周围的世界时,由于两只眼睛的位置不同,得到的图像略有不同,这种差别能让我们感知到深度,让事物看起来立体。VR技术也是利用这种视觉差别,替我们的双眼安排不同的画面,从而让我们感觉到画面的立体性。与3D电影不同,VR强调的是360度全景交互,不仅有强烈的沉浸感和立体感,更重要的是允许用户和虚拟世界进行交互。
在人造环境中,每个物体相对于系统的坐标系都有一个位置,而用户也是如此,用户看到的景象是由用户的位置和头(眼)的方向来确定的。跟踪头部运动的虚拟现实头套可以感知我们的头部动作。
这样,当我们在移动时,虚拟世界中的我们就能同样的移动,当我们向左看,虚拟现实头套可以识别这一动作,这时硬件会及时渲染出左边的场景。如此,当我们往左看时,就能看到左边的场景,往右看时,就能看到右边的场景,避免了场景不跟随我们目光移动的意外。
1956年:Sensorama
1956 年,摄影师Morton Heilig发明了Sensorama,一款集成体感装置的3D互动终端,它集成3D显示器、立体声音箱、气味发生器以及振动座椅,用户坐在上面能够体验 到6部炫酷的短片,体验非常新潮。当然,它看上去硕大无比,像是一台医疗设备,无法成为主流的娱乐设施。
1961年:Headsight
1961年,Headsight问世,是世界上第一款头戴显示器。它有飞歌公司研发,融合CCTV监视系统及头部追踪功能,但本质上,它的主要目的是用于隐秘信息查看,而非娱乐设备。
1966年:GAF Viewmaster
这款GAF Viewmaster是最早的3D头戴设备之一,通过内置两颗镜片来观赏幻灯片,具有一定的3D效果,但更像是儿童玩具,而非专业的影音设备。其后续版本还加入了音频功能,实现简单的多媒体功能。
1968年:Sword of Damocles
1968年问世的Sword of Damocles(达摩克利斯之剑),是麻省理工学院实验室研发的头戴显示器,其设计非常复杂,组件也非常沉重,所以需要一个机械臂吊住头戴来使用。
1980年:Eye Tap
这款Eye Tap看上去与微软的HoloLens非常相似,严格意义上它也的确是一款增强现实设备,可以连接计算机摄像头,将数据叠加显示在眼前。当然,今天人们对虚拟现实和增强现实已经有了更明确的定义,但Eye Tap对于虚拟现实技术的发展还是具有一定意义的。
1984年:RB2
RB2可以说是第一款商业虚拟现实设备,其设计与目前主流产品已经非常相似,并且配有体感追踪手套,可实现操作。然而,其经过高达50000美元起,在1984年无疑是天价。
1985年:NASA头戴显示器
1985年,NASA(美国航空航管理局)研发出真正的LCD光学头戴显示器,其设计结构被目前的虚拟现实头戴广泛采用,只不过将LCD换为更低功耗、显示效果更好的OLED。另外,它还具有头部、手部追踪系统,可实现更加沉浸式的体验,被用于模拟太空作业等方面。
1993年:世嘉VR
著名游戏厂商世嘉曾计划在1993年发布基于其MD游戏机的虚拟现实头戴显示器,设备看上去非常前卫。遗憾的是,在早期非公开试玩测试中,测试者反应平淡,最终世嘉以“体验过于真实、担心玩家会受到伤害”为理由,取消了该项目。
1995年:任天堂Virtual Boy
1995 年,任天堂发布32位游戏机Virtual Boy,这是一款非常另类的游戏机,其主机是一个头戴显示器,但只能显示红黑两色。另外,碍于当时技术限制,游戏内容基本上都是2D效果,再加上较低的分 辨率和刷新率,极易使用户产生眩晕和不适感。最终,任天堂的虚拟现实游戏计划在短短不到一年时间便宣告失败。
1995年:CAVE
1995年,伊利诺伊大学的学生们研发出“CAVE”虚拟现实系统,通过创建一个三壁式投影空间、配合立体液晶快门眼镜,来实现沉浸式体验,对于现代虚拟现实技术起到了极大地的推动作用。
2009年:Oculus Rift
毫无疑问,Oculus Rift复兴了虚拟现实技术,把它重新带回大众视野中。2009年,其创始人在Kickstarter上发起众筹活动,在很短时间内便获得超过10000 个支持者,备受关注。此后,第三方资金不断涌入,让Oculus Rift得以高速发展。
2014年,社交巨头Facebook宣布以20亿美元收购Oculus,Oculus Rift也在经过了数个DK版本之后,正式于今年1月开放消费者版预购、于3月在全球20多个国家及地区出货。至此,虚拟现实真正步入了消费电子市场。
从科幻到现实,从1957到现在,VR设备的发展被许多人形容为是“将梦变为现实”的过程,尽管还存在不足,还面临坎坷,我们依然有理由期待VR将有光明的未来,毕竟每项科技都是这样一路跌撞走来,渐渐成长的。
相比较而言,利用计算机模型产生图形图像并不是太难的事情。如果有足够准确的模型,又有足够的时间,我们就可以生成不同光照条件下各种物体的精确图像,但是这里的关键是实时。例如在飞行模拟系统中,图像的刷新相当重要,同时对图像质量的要求也很高,再加上非常复杂的虚拟环境,问题就变得相当困难。
人看周围的世界时,由于两只眼睛的位置不同,得到的图像略有不同,这些图像在脑子里融合起来,就形成了一个关于周围世界的整体景象,这个景象中包括了距离远近的信息。当然,距离信息也可以通过其他方法获得,例如眼睛焦距的远近、物体大小的比较等。
在VR系统中,双目立体视觉起了很大作用。用户的两只眼睛看到的不同图像是分别产生的,显示在不同的显示器上。有的系统采用单个显示器,但用户带上特殊的眼镜后,一只眼睛只能看到奇数帧图像,另一只眼睛只能看到偶数帧图像,奇、偶帧之间的不同也就是视差就产生了立体感。
用户(头、眼)的跟踪:在人造环境中,每个物体相对于系统的坐标系都有一个位置与姿态,而用户也是如此。用户看到的景象是由用户的位置和头(眼)的方向来确定的。
在传统的计算机图形技术中,视场的改变是通过鼠标或键盘来实现的,用户的视觉系统和运动感知系统是分离的,而利用头部跟踪来改变图像的视角,用户的视觉系统和运动感知系统之间就可以联系起来,感觉更逼真。
另一个优点是,用户不仅可以通过双目立体视觉去认识环境,而且可以通过头部的运动去观察环境,这样当我们在现实世界中移动,虚拟现实世界中的我们也就能同样地移动。
当我们向左看,头部追踪技术能够识别这一动作,这时硬件就会即时渲染出左边的场景,这样,我们往左看就能看到左边的场景,往右看则能看到右边的场景,而不会发生场景跟着我们移动的意外。
其实,即使是手机VR盒子,都具备上述的几个关键硬件技术(手机通过陀螺仪模拟头部追踪),但眼球追踪,在VR领域中还算是比较稀有的玩意。
眼球跟踪技术是通过追踪我们的瞳孔实现的,算法能够根据我们注视的景物来变换景深,从而带来更出色的沉浸体验。
比如,伸出一只手指举在眼前,当我们注视着它时,手指前方的景物便会变得模糊,而当我们注视背景,手指又会变得模糊,这正是景深不同带来的变化。眼球追踪技术能够知道我们在看哪里,从而模拟景深的变化,让体验更加出色。
提起VR领域最重要的技术,眼球追踪技术绝对值得被从业者们密切关注。Oculus创始人帕尔默•拉奇就曾称其为“VR的心脏”,因为它对于人眼位置的检测,能够为当前所处视角提供最佳的3D效果,使VR头显呈现出的图像更自然,延迟更小,这都能大大增加可玩性。
同时,由于眼球追踪技术可以获知人眼的真实注视点,从而得到虚拟物体上视点位置的景深。所以,眼球追踪技术被大部分VR从业者认为将成为解决虚拟现实头盔眩晕病问题的一个重要技术突破。
人能够很好地判定声源的方向。在水平方向上,我们靠声音的相位差及强度的差别来确定声音的方向,因为声音到达两只耳朵的时间或距离有所不同。
常见的立体声效果就是靠左右耳听到在不同位置录制的不同声音来实现的,所以会有一种方向感。现实生活里,当头部转动时,听到的声音的方向就会改变。但目前在VR系统中,声音的方向与用户头部的运动无关。
在一个VR系统中,用户可以看到一个虚拟的杯子。你可以设法去抓住它,但是你的手没有真正接触杯子的感觉,并有可能穿过虚拟杯子的“表面”,而这在现实生活中是不可能的。解决这一问题的常用装置是在手套内层安装一些可以振动的触点来模拟触觉。
在VR系统中,语音的输入输出也很重要。这就要求虚拟环境能听懂人的语言,并能与人实时交互。而让计算机识别人的语音是相当困难的,因为语音信号和自然语言信号有其“多边性”和复杂性。
使用手势跟踪作为交互可以分为两种方式:第一种是使用光学跟踪,第二种是将传感器戴在手上的数据手套。
光学跟踪的优势在于使用门槛低,场景灵活,用户不需要在手上穿脱设备,未来在一体化移动VR头显上直接集成光学手部跟踪用作移动场景的交互方式是一件很可行的事情。但是其缺点在于视场受局限,以及使用手势跟踪会比较累而且不直观,没有反馈。这需要良好的交互设计才能弥补。
数据手套,一般在手套上集成了惯性传感器来跟踪用户的手指乃至整个手臂的运动。它的优势在于没有视场限制,而且完全可以在设备上集成反馈机制(比如震动,按钮和触摸)。
它的缺陷在于使用门槛较高:用户需要穿脱设备,而且作为一个外设其使用场景还是受局限:就好比说在很多移动场景中不太可能使用鼠标。
不过这些问题都没有技术上的绝对门槛,完全可以想象类似于指环这样的高度集成和简化的数据手套在未来的VR产业中出现,用户可以随身携带随时使用。
分享一条链接:传感器原理和应用大合集