作者
:
dizzarz
全文共 3017 字,阅读需要 6 分钟
—— BEGIN ——
随着oculus F8展示的facebook对VR社交的思考方向,和《High Fidelity》目前获得的关注,VR社交展示出了在未来整个产业中诱人的前景。是否在不远的未来,我们会进入到VR中,去使用形式更有趣,互动更丰富,内容更多元的社交服务呢?
(看起来目前HF是完成度最高的VR社交服务了,而且他本身承载着创始人对《第二人生》项目的积累和对未来的野心)
单纯从社交服务本身来看,新一代VR社交平台已经完全具备了让用户打造自己的梦幻社交角色的能力。基于全身运动的动作采集,可以完美对应用户动作,让虚拟替身(avatar)做出任何运动姿态。同时动作游戏《for honor》也展示了未来虚拟替身(Avatrar)可以做到怎样流畅的运动。
荣耀战魂(for honor)明显是一个已经缺乏热度的格斗游戏了,复杂的操作成为了普及的致命伤。但是流畅的人物动作会在未来成为一个重要的标杆,尤其是在VR社交服务中,关于如何做到流程的动作切换和对应。也许荣耀战魂会给我们一些启迪。
现代建模技术可以通过几张照片进行快速面部建模,同时面部表情的识别我们也有了oculus通过声音(语音和声调等等)来进行快速匹配。或者通过VR眼罩增加压力传感器,通过面部肌肉的运动,来进行表情匹配。当然,还可以通过摄像头来进行捕捉和分析。
他们在合作研究中发现,由于VR玩家的头部被HMD挡住一部分,这会为VR实现面部表追踪造成很大的麻烦。于是,研究者们尝试将传感器嵌入在泡沫板里(下图黄色标记部分),通过感应面部肌肉的抽动来捕捉玩家脸上部的表情,而前面伸出的摄像头用来追踪用户的下巴和嘴的动作。
转自:http://befo.io/1929.html 这篇文章还细致的讨论了其他表情捕捉的方式。
眼神是个问题,没有眼神的Avatar很容易造成恐怖谷效应。《极地特快》这部缺乏眼神交互动画片据说造成了不少小观众的恐慌。Oculus的解决方案秉承了半条命2和fallout4的的处理思路,当视觉方向确定之后眼神自动关注前方的交互对象,然后再随机四下游动,然后在关注交互对象。
(半条命2的NPC,他们会直勾勾的盯着你)
这样可以较为逼真的模拟人类对话式的眼部动作,不过HTC vive则是在眼镜中支持了七鑫易维提供的眼球追踪模块。从VR产品方向来说,这种模块不但可以更好的研发VR 用户界面,也可以为用户间交互时解决眼神的问题。
自中国的七鑫易维更是拿出已经可以量产发售的VR眼球追踪模组aGlassII…采用插入式附加升级套件形式,用USB接入到HTC VIVE头显中。
来自:《七鑫易维推出HTC Vive aGlassDKII眼球追踪模组,只要1500元。
目前来说,VR还没有良好的文字输入解决方案,我曾经在专栏中发表过一个VR输入法的原型,但那实质上也只是一个简单的思考方向,在实际使用中一定会不甚其烦。
从设备方案来说,基于力反馈的手部解决方案(例如:Dexmo)对解决VR内的文字输入会是一个很有前途的方向。
对于大多数人来说,似乎有语音系统就意味着解决了文字输入问题。然而口语表达在很大程度上是难以取代书面表达的。口语表达太慢了,同时难以做逻辑或数据性的表达,而且书面表达口语表达的内在逻辑也有不小的差别。
基于BCI的文字性输入系统是个很好的方向,但是BCI太远了,而且BCI输入是否也能像书面表达那样经过内在逻辑组织整理,目前还没有特别可靠的进展导报。
(这种侵入式的BCI离实用还有非常遥远的距离)
刚说到声音,现在的变音器软件发展可真是一日千里,而这个一定会在VR社交中成为重要内容,会像虚拟avatar对用户的重要程度一样。
而且youtube已经能将视频中的语音转为字母,并且自动翻译。
那么进入某一天,在丝毫不通外语情况下,通过Avarta在虚拟社交中讲一口流利的外语也是可以想象到的场景了。