最近在看 SIGGRAPH2015 有关 VR Display and Interaction 我以前从未读过几篇文章的相关方面 paper,乍一看,我发现专业词汇太多了,根本不懂。幸运的是, Paper Reading 要求不高。用百度,Google翻译一些短语,结果不对。从 可穿戴设备网找到这个 VR吹牛宝典:总结高大的专业术语,转身。
- 微透镜阵列显示技术(Microlens Array Display technology):通过对微透镜阵列结构的深入研究,揭示了微透镜阵列对微图形的放大原理.在此基础上,发现了微透镜阵列结构参数、微图结构参数与微图阵列移动速度、移动方向和放大倍率的关系,微图形放大、动态、立体显示采用微透镜阵列。
- 头戴式可视设备(Head Mount Display):一种头戴虚拟显示器,又称眼镜式显示器,随身影院。这是一个流行的名字,因为眼镜显示器看起来像眼镜,专门为大屏幕显示音视频播放器的视频图像,所以图像被称为视频眼镜(videoglasses)。视频眼镜最初是军事需求和军事应用。目前的视频眼镜就像大哥手机的阶段和地位,未来是3C在融合大发展的情况下,它将取得非常快速的发展。
- 近视光场显示器(Near-Eye Light Field Display):由NVIDIA研发的新型头戴显示设备名为“近视光场显示器”,其内部使用了一些索尼3D头戴OLED显示器HMZ-T1组件,外围结构使用3D制造印刷技术。近视场显示器焦距3.3mm微镜头阵列取代了以往类似产品中使用的光学透镜组,成功地将整个显示模块的厚度从40开始mm减少到了10mm,佩戴起来更方便。同时配合使用NVIDIA最新的GPU芯片进行实时光源光跟踪操作,将图像分解成几十组不同的视角阵列,然后通过微透镜阵列在用户面前恢复图像,使观众能够从不同的角度自然观察三维图像,就像在现实世界中一样。由于近视场显示器可以通过微透镜阵列恢复画面中的环境,所以只需要GPU在操作过程中添加视力矫正参数可以抵消近视或远视等视力缺陷对观看效果的影响,这意味着眼镜家庭也可以在裸眼下使用该产品享受真实清晰的3D画面。
- 视场角(Field of View,FOV):在光学仪器中,以光学仪器的镜头为顶点,通过镜头最大范围的两个边缘形成的夹角称为视场角。视角的大小决定了光学仪器的视野范围,视角越大,视野越大,光学倍率越小。一般来说,超过这个角度的目标对象不会被放在镜头里。在显示系统中,视角是显示边缘与观察点(眼睛)连接的夹角。
- 裸眼3D:裸眼3D,它利用人眼的视差,不需要任何辅助设备(如3)D在眼镜、头盔等的情况下,可以获得具有空间、深度的逼真立体图像。从技术上讲,裸眼3D可分为光屏障柱状透镜技术和指向光源。裸眼式3D该技术最大的优点是摆脱了眼镜的束缚,但在分辨率、视角和视觉距离方面仍存在许多不足。
- HMZ:截至2015年4月24日,索尼宣布停产HMZ2011年,该系列推出了三代产品HMZ-T1、2012年的HMZ-T2以及2013年的HMZ-T3/T3W。HMZ-T显示分辨率只有720p,耳机是虚拟5.一声道,还要拖一个大集线箱。首先它采用的是两块0.7英寸720pOLED屏幕,佩戴HMZ-T1后这两块0.7寸屏幕的显示效果就像在20米的距离观看750寸巨屏。索尼于2012年10月发布HMZ-T1小改版也就是HMZ-T2。相比HMZ-T1重量降低30%,内置耳机设计取消,用户可以使用自己喜欢的耳机。尽管屏幕保持0.7英寸720pOLED参数保持不变,但引入14bitRealRGB3×3色变换矩阵引擎和全新的光学滤镜实际上提高了画质。2013年的HMZ-T3/T3W升级幅度不小,首次实现无线信号传输,允许您佩戴无线版本HMZ-T3W在不再受电缆束缚的情况下缆的束缚。
- 光跟踪算法:为了在三维计算机图形环境中生成可见图像,光跟踪是一种比光投射或扫描线渲染更逼真的实现方法。该方法通过逆向跟踪与假相机镜头相交的光路工作。由于大量类似的光穿过场景,可以从相机的角度构建场景可见信息和软件的具体光照条件。当光与场景中的物体或媒介相交时,计算光的反射、折射和吸收。光跟踪场景通常由程序员用数学工具、视觉艺术家用中间工具、数码相机等不同技术方法捕获的图像或模型数据来描述。
- 真实绘画技术:在虚拟现实系统中,真实绘画技术的要求不同于传统的真实绘画。传统绘画只需要图形质量和真实性,但在VR在中间,我们必须使图形显示的更新速度不小于用户的视觉转换速度,否则图像会迟滞。故在VR实时三维绘制需要实时生成图形,每秒必须生成不少于10到20帧的图像。同时,它的真实性必须反映模拟对象的物理属性。通常采用纹理映射、环境映射和反走样的方法,使画面场景更加逼真实时。
- 基于图像的实时绘制技术:基于图形绘制(ImageBasedRendering,IBR)与传统的几何绘制方法不同,先建模型,在定光源绘制。IBR图像直接从一系列图形中生成,图像直接变换、插值和变形,从而获得不同视角的场景图像。
- 三维虚拟声音技术:我们在日常生活中听到的三维声音来自左右声道。声音效果可以很明显,我们感觉到来自我们面前的平面,而不是像有人在我们背后喊我们一样,声音来自声源,可以准确地判断它的位置。显然,现在的立体声是做不到的。三维虚拟声音是为了听其声音区分其位置,即用户可以在虚拟场景中听声音,完全满足现实环境中听力系统的要求,称为三维虚拟声音。
- 语音识别技术(Automatic Speech Recognition,ASR):语音识别技术是将语言信号转变为可被计算机识别的文字信息,使得计算机可以识别说话人的语言指令和文字内容的技术。要实现语音的完全识别是非常困难的,必须、参考模式建立、模式识别等几个过程。随着研究人员的不断研究,采用了傅里叶转换、频谱参数等方法,语音识别度越来越高。
- 语音合成技术(Textto Speech,TTS):语音合成技术是指人工合成语音技术。实现计算机输出的语音可以准确、清晰、自然地表达意义。一般有两种方法:一种是录音/重放,另一种是文本-语言转换。在虚拟现实系统中,语音合成技术的应用可以提高系统的沉浸感,弥补视觉信息的不足。
- 人机自然交互技术:在虚拟现实系统中,我们致力于让用户通过眼睛、手势、耳朵、语言、鼻子、皮肤等感官器官与计算机系统中产生的虚拟环境交互。这种虚拟环境下的交换技术叫做人机自然交互技术。
- 眼动跟踪技术(Eye Movement-based Interaction):眼动跟踪技术也称之为实现跟踪技术。它可以补充头部跟踪技术的不足之处,这样即简单有直接。
- 面部表情识别技术:目前该技术的研究与预期效果相差甚远,但研究结果显示了其魅力。该技术一般分为三个步骤,一是跟踪面部表情,用相机记录用户的表情,然后通过图像分析和识别技术实现表情识别。二是面部表情的编码,研究人员使用面部动作编码系统(FACS)解剖人的面部表情,对其面部活动进行分类和编码。最后是面部表情的识别,通过FACS系统可以构成表达识别系统流程图。
- 手势识别技术:数据手套(Dataglove)或深度图像传感器(如leapmotion、kinect等)来精确测量出手的位置和形状,由此实现环境中的虚拟手对虚拟物体的操纵。数据手套通过手指上的弯曲、扭曲传感器和手掌上的弯曲和弯曲传感器来确定手和关节的位置和方向,而基于深度传感器的手势识别则通过深度传感器获得的深度图像信息来计算,然后获得手掌、手指等部分的弯曲角度。
- 实时碰撞检测技术:在日常生活中,人们已经建立了一定的物理习惯,如固体不能相互渗透,物体坠落做自由坠落运动,抛出物体做平抛运动等,但也受到重力和空气流量的影响等。为了在虚拟现实系统中完全模拟现实环境,防止渗透,必须引入实时碰撞检测技术。Moore提出了两种碰撞检测算法,一种是处理三角形物体表面,另一种是处理多面体环境的碰撞检测。有三个主要部分可以防止穿透。首先,必须检测碰撞。其次,调整物体速度以响应碰撞。最后,如果碰撞,响应不会导致物体立即分离,则必须计算和施加接触力,直到分离。
- 三维全景技术(Panorama):三维全景技术为现在最为流行的视觉技术,它以图像绘制技术为基础生成具有真实感图像的虚拟现实技术。全景图的生成首先是通过相机平移或旋转获得的一系列图像样本;然后利用图像拼接技术生成动态和透视效果强的全景图像;最后,利用图像集成技术,全景图给用户带来新的现实感和互动感。该技术利用提取全景图深度信息来恢复实时场景的三维信息建立模型。方法简单,设计周期缩短,成本大大降低,效果更好,目前比较流行。
继续看 paper!!! Orz