当前位置: 首页 > news >正文

建设一个网站需要哪些员工广州app客户端开发

建设一个网站需要哪些员工,广州app客户端开发,品牌建设中企业要注意哪些问题,网页游戏排行榜枪战一、先别被VR/AR/MR/XR搞晕#xff0c;说说区别虚拟现实#xff08;Virtual Reality#xff0c;VR#xff09;、增强现实#xff08;Augmented Reality#xff0c;AR#xff09;等业务以其三维化、自然交互、空间计算等完全不同于当前移动互联网的特性#xff0c;被认为…一、先别被VR/AR/MR/XR搞晕说说区别虚拟现实Virtual RealityVR、增强现实Augmented RealityAR等业务以其三维化、自然交互、空间计算等完全不同于当前移动互联网的特性被认为将是下一代通用计算平台。自 2012 年谷歌发布 AR 眼镜 Google Glass, 2014 年 Facebook 收购 VR 头显厂商 Oculus 以来VR/AR 行业历经了 2015 年至 2017 年的创业和资本的狂热2018 年的行业退潮。随着 2019 年底全球 5G 正式展开部署VR/AR 作为 5G 核心的商业场景重新被认识和重视行业重回升势。2020 年虽然受疫情的影响全球各生产生活都受到了不同程度的冲击然而 VR/AR 行业因祸得福因疫情造成的社交隔离激发了 VR 游戏、虚拟会议、AR 测温等需求爆发。Steam 平台 VR 活跃用户翻倍增长虚拟会议云端展览案例层出不穷当前 VR/AR/MR/XR 各种 *R 概念纷飞让人眼花缭乱。本期希望能先辨析清楚这几个概念后续将进一步分析当前的 XR 核心技术梳理当前应用场景和产业情况以及展望未来发展。虚拟现实Virtual RealityVR概念VR 是已包装好的视觉、音频场景数字内容的渲染版本。渲染旨在模拟观察者或用户在应用程序定义的范围内移动时尽可能自然地模拟现实世界中的视觉和音频感官刺激。VR 通常但非必须要求用户佩戴头部显示器以模拟的视觉组件完全取代用户的视野并佩戴耳机以向用户提供配套的音频。通常还需要在 VR 中对用户进行某种形式的头部和动作跟踪以便更新模拟的视觉和音频组件以确保从用户的角度来看图像和声源与用户的动作保持一致。还可以提供与虚拟现实仿真进行交互的其他手段但非必须 [1]。发展历程虚拟现实 VR 为梦想而生让梦成 “真”。1935 年小说家 Stanley Weinbaum 在小说中描述了一款 VR 眼镜以眼镜为基础包括视觉嗅觉触觉等全方位沉浸式体验的虚拟现实概念该小说被认为是世界上率先提出虚拟现实概念的作品。有了方向接下来就是追梦者的舞台1957 年电影摄影师 Morton Heiling 发明了名为 Sensorama 的仿真模拟器是通过三面显示屏来形成空间感无比巨大用户需要坐在椅子上将头探进设备内部才能体验到沉浸感如图 1-1 左侧。图 1-1. 早期 VR 设备1968 年美国计算机图形学之父、图灵奖获得者 Ivan Sutherland 开发了第一个计算机图形驱动的头盔显示器 The Sword of Damocles达摩克利斯之剑如图 1-1 右侧它同时也是增强现实的雏形。VR 向用户呈现的是和现实环境阻隔的纯虚拟环境通常以头部显示器的方式沉浸感优越因而主要作为娱乐和社交工具进入大众视野消费级产品层出不穷当前整个产业已经趋于成熟。比较典型的 VR 头显有如下几类图 1-2. VR 头显样例手机盒子这类头显的显示效果的好坏完全取决于眼镜里插入的手机的屏幕分辨率、处理器速度、传感器精度。Google的 Cardboard和三星的Gear VR就属于此类市面价格最低。PC/PS4 主机头显为了达到极优秀的显示效果它们需要连接 PCSony 的 PSVR 是连接 PS4使用 PC 的 CPU 和显卡来进行运算。见示意图会有很多连线观影效果好但是移动便捷性差。比较典型有 HTC VIVO PRO EYE还有 SONY 的 PlayStation VR。一体机头显一体机使用移动芯片如高通骁龙系列来进行图像和定位计算。脱离了 PC/PS4 或者手机等外部设备的连线束缚即开即用非常方便。当前比较典型的有 Oculus questPico 的 Neo CV。当前一体机已经渐渐成为主流。VR Glass当前最轻便的 VR 头显类似主机头显需要连接手机用手机芯片来处理数据。比较典型的是华为的 VR 眼镜眼镜重量 200g, 极为轻便。VR 的阻断隔离式的沉浸感是优点也是缺点但是因为和现实的脱节导致其实用性不足因此分化出第二条发展路线 AR。增强现实Augmented RealityAR概念AR 是指向用户提供其他信息或人工生成的对象或内容覆盖其当前环境的图像。此类附加信息或内容通常是视觉或听觉的并且对当前环境的观察可以是直接的没有中间转换处理和渲染或者是间接的因为它们对环境的感知是通过传感器进行中继的并且可以得到增强或处理 [1]。人物的第一视角看到的环境仍为现实场景通过技术手段显示器、眼镜等在人眼所见的现实场景中融入虚拟内容虚拟内容不基于对现实环境的实时理解只是相对简单的拼凑在一起。发展历程增强现实AR是为实用性而生。时间轴如下图所示。图 1-3. AR 发展历程AR 的发展一波三折从最初的原型开始 AR 就采用先进的光学透视式的显示的方式但是进展并不顺利沉寂多年。AR 概念是在 1990 年由波音公司的研究员 Tom Caudell 提出的随后在 ToB 专业领域崭露头角比如美国空军研发的虚拟帮助系统哥伦比亚大学的 KARMA 修理帮助系统等。而增强现实走进大众视野是通过平面显示器电脑、电视、手机将现实图像和虚拟物品叠加显示的方式达成的1998 年 AR 第一次用于直播展示橄榄球比赛进攻黄线而带来革命的是第一个增强现实 SDK ARToolkit作为第一个 AR 开源框架被发布使 AR 技术走出专业的研究机构之中许多普通程序员也都可以利用它开发自己的 AR 应用。现在有多个 AR 引擎支持手机应用的开发使 AR 进入到我们的日常生活但是通过平面显示器的展现方式沉浸感较低。所以人们并没有放弃沉浸感更高的穿戴设备的 AR 实现Google 在 2012 年 6 月推出 Google Glass但是效果不尽如人意未能成为精品时至今日虽有消费级 AR 眼镜的出现但是成熟度不高近两年极有可能会有突破。图 1-4. AR 眼镜样例混合现实Mixed RealityMR概念MR 是 AR 的一种高级形式虚拟元素被融入到物理场景中目的是提供一种虚拟和现实结合的场景即这些元素是真实场景的一部分 [1]。在 MR 场景下大部分虚拟内容基于现实理解而产生因此比纯虚拟化的场景更具有体验上的真实感。发展历程混合现实 MR 是将梦境和现实融合。混合现实出现时间比 VR 和 AR 晚理解存在争议尤其是同 AR 的边界较难划分。早在 1994 年Paul Milgram 和 Fumio Kishino 在论文中提出了混合现实的定义并利用虚拟连续体Virtuality Continuum坐标的形式阐述了三者关系。最初的概念见图 1-5左侧可理解为人裸眼所见的真实物理世界随着坐标轴向右对现实世界的虚拟化或称数字化程度逐渐增大AR 阶段所见的视觉信息仍是现实环境为主到最右侧就是与现实脱钩处在完全虚拟化的环境中就是 VR。而从真实世界向完全虚拟化环境 VR 的转变过程统称为 MR即现实与虚拟的融合过程。论文中提到了增强虚拟的概念目前大众接受度不高没有形成单独的产品。图 1-5. 现实与虚拟的坐标对比[2]根据这个定义MR 最初是一个过程的概念并非特定技术栈而在此过程中按照人眼所见现实与虚拟的结合程度出现了 VR/AR 这样不同体验的产品类别。但是随着产业的发展以微软为代表的一些厂商把 MR 定义成 VR/AR 的融合技术提供将现实场景虚拟化的体验此时人眼所见的虚拟场景是基于现实数字化得来的。微软是这样区分三者的关系的在物理世界的视频流中叠加图形的体验是“增强现实”。 遮挡视线以呈现数字图像的体验是“虚拟现实”。 在增强现实和虚拟现实之间实现的体验形成了“混合现实”。图 1-6. 微软对 VR、AR、MR 的划分相比 AR 主要是实现虚拟的对象直接显示在现实世界的图像上而 MR 是让虚拟物品不仅仅是作为图像出现在现实世界而是 “以更逼真的存在的方式” 融入现实世界或者反过来让现实空间的对象融入到虚拟空间的方式打破两个空间的隔离性两个空间的实体可以互相交互给人一种浑然一体的体验。技术难度在三者中是最高的。MR 是 AR 的增强与其说 MR 眼镜不如说有 MR 功能的 AR 眼镜或者 VR 眼镜更恰当。目前主流市场上也仅有微软 HoloLens 和 Magic Leap 等提供 MR 功能的产品但都不太成熟。图 1-7. MR 功能眼镜样例通过下面组图来进一步帮大家一起区分AR和MR。首先看图 1-8 是真实的现实物理的办公室场景。图 1-8. 真实办公室场景图 1-9 是识别现实办公室中真实存在的平面后将虚拟对象狗、地球、显示器、花瓶等是嵌入现实世界图像的平面上。因此展示内容是一种典型的 AR 场景。图 1-9. AR 场景图 1-10调整环境使其虚拟化整个办公室面目全非但是办公室的边界清晰可见真实的人化身为一个虚拟形象现实没有建模的物品会消失如便携电脑此时数字化的现实场景和虚拟场景是互相理解融为一体。因而与 VR 提供的是与人眼所见现实脱钩的另外一个完全数字化的虚拟场景体验完全不同观察者在此视角下走动时可以根据眼前虚拟的现实场景避开现实中的桌子、墙面和人物。因此在此概念中MR 可视为 VR 和 AR 的融合技术。图 1-10. MR 场景扩展现实eXtended RealityXR概念XR 是指由计算机技术和可穿戴设备生成的所有真实和虚拟组合环境以及人机交互。代表性的形式有 ARMR 和 VR 以及在他们之间的交叉场景。虚拟级别的范围从部分感官输入 AR 到完全沉浸式 VR。XR 的一个关键方面是人类体验的扩展尤其是与存在感以 VR 为代表和认知的获得以 AR 为代表有关 [1]。发展历程由于很多时候 MR 和 AR 之间是很难有明确区分的边界而且三者发展互相有关联技术有交集因而 2016 年 11 月扩展现实 XR 概念被提了出来尤其高通对这个概念最为热衷推出了虚拟现实 / 增强现实一体化的 XR 芯片。根据高通的定义扩展现实 XR 是一个概括性术语囊括了增强现实AR虚拟现实VR混合现实MR以及介于他们之间的所有内容。尽管 AR 和 VR 提供了迥然不同的革命性体验但是相同的基础技术正在推动 XR 的发展。更早的时候XR 在视觉领域被提出作为扩展人类可见光谱范围之意如紫外线红外线等但是并非和虚拟现实 / 增强现实领域相关的概念在此不细述。以上是对XR概念的介绍后续会对XR的关键技术、应用场景、产业情况以及未来趋势继续讨论。图1 VR、AR、MR、XR关系图虽然在体验上 AR 和 VR差异很大但是两者却有着相同的技术基础多领域技术交叉重合而MR一般被理解为AR能力的增强和AR技术栈高度复合国内一般统一把他们作为虚拟/增强现实领域一起分析本文也采用了这种分析方式。二、说说XR相关技术架构当前XR相关技术和产品还在发展期信通院在其白皮书中给出的范畴比较全面因此在此引用了其技术体系展开[2][4]。首先在顶层定义了“五横两纵”技术架构见图2。“五横”是指近眼显示、感知交互、网络传输、渲染处理与内容制作五大技术领域。“两纵”是指支撑虚拟现实发展的关键器件/设备与内容开发工具/平台。图2 “五横两纵”技术架构横向技术维度可细分为三层体系第一层为五类技术领域每个领域可再细分子领域和技术点见图3 示意。这种分类方法可能不是最有深度的但是相对是最全的。本文后面会对每个热点技术展开基础了解如果深入每个点都是一个独立的技术领域。图3 XR关键技术体系XR热门技术点成熟度曲线见下图很多技术都处在爬坡期。技术供需面临多重挑战存在超长的产业链条致使创新投入力不从心现实效果与用户预期存在落差等问题。根据虚拟现实产业推进会VRPC产业分析与体验调优平台数据统计用户体验痛点清单按优先级排序可归纳为“用贵笨视晕传知”即高品质爆款内容缺乏高性能终端存在一定价格门槛外观形态吸引力不足佩戴不够轻便分辨率、视场角等方面的画面视觉质量有限头动响应MTP时延、辐辏调节冲突VAC。图4 虚拟/增强现实技术成熟度曲线2020信通院为了度量XR的发展阶段参考国际上自动驾驶汽车智能化程度分级信通院将虚拟现实技术发展划分为如下五个阶段得到国内产业内一定的认同指标见下图。图5 虚拟/增强现实沉浸体验分级三、分领域看看核心技术点根据以上分级我们当前的水平处于部分沉浸期主要表现为 1.5K-2K 单眼分辨率、100-120度视场角、百兆码率、20毫秒MTP时延、4K/90帧率渲染处理能力、由内向外的追踪定位与沉浸声等技术指标正在向深度沉浸过度。下面我们就分领域讨论核心技术点的内容。1. 近眼显示没有头戴设备的XR应用场景沉浸感无从谈起XR头显/眼镜的近眼显示技术是沉浸感提升的前提。在具体介绍技术点之前先说一下基础概念视场它主要表示人眼所能看到的图像最大角度范围。一般人的话我们水平方向双眼是200度会有120度的重叠。双眼重叠部分对于人眼构建立体和景深非常重要而垂直视角大约为 130 度。图6 视场示意图再介绍一下显示方式的分类当前主要分三种。完全沉浸传统的VR都是这种情况和现实完全的隔离的显示方式光学透视型当前主流的AR/MR眼镜都是这种类型视频透视型把显示场景通过摄像头视频的方式呈现在用户眼前带MR能力的VR眼镜是这种类型是当前VR眼镜的主流发展方向如oculus quest2有四个摄像头在MR场景下可以比较清楚的“看”到周边的环境。从显示原理上看我可以粗分为VR类型非透视型显示和AR类型透视型显示两种后面我们就以VR和AR两种场景进行分析。图7 显示器类型示意图近眼显示是XR的沉浸感提升的核心技术一直备受瞩目。但是受限于核心光学器件与新型显示的发展整体相对迟缓。2020年随着市场需求日渐清晰业界对近眼显示领域表现出更高的期待。显示器领域VR类型非透视型和AR类型光学透视型显示对应当前两种主流显示器类型快速响应液晶Fast-LCD和硅基OLEDOLEDoS处于实质规模量产阶段。VR类型显示器首选Fast-LCD。2020新VR终端多采用Fast-LCD如 Facebook Quest 2因性价比替换了上代产品中AMOLED。AR类型显示器当前首选为OLEDoS在对比度、功耗与响应时间等方面的性能表现都能达到要求。而LBS激光扫描显示被应用在微软等高端产品亮度、功耗与体积等方面的优势使得该技术获得业界关注但需搭配较为复杂的光学架构实现功能且虽然技术先进但最终在分辨率、偏色等方面表现一般应用前景不明。微型发光二极管Micro-LED适用于以上两种显示类型是未来的发展方向。Micro-LED具备低功耗、高亮度、高对比度、反应速度快、厚度薄与高可靠等性能优势但现阶段LED受限于工艺问题未能量产根据当前产业相关发展情况预计其规模量产时间在2022年左右。2020 年 Mojo Vision发布了首款内置Micro LED的AR隐形眼镜当前智能隐形眼镜尚处于萌芽状态。未来近眼显示系统有望由当前眼球外安置头显终端/眼镜向眼球上隐形眼镜、眼球内晶状体、视网膜乃至视觉皮层转移。光学领域在光学领域发展方向是以人为中心的光学架构视觉质量、眼动框范围、体积重量、视场角、光学效率与量产成本间的权衡取舍、优化组合成为驱动技术创新的主要动因。VR领域难度低比较成熟。当前超薄VRPancake利用半透半反偏振膜的双透镜系统折叠光学路径将头显重量降至 200g 以内且可保证较好的显示效果及更大的视场角。AR领域难度大发展相对缓慢。折反式Birdbath设计因难度低和成本低是当前消费级AR的首选但其厚度问题导致其未来发展空间小。自由曲面在早期得到业界认可其显示效果、光效表现较好但量产难以保证较高精度而导致真实世界扭曲和水波纹样畸变发展前景也不被看好。光波导相比其他光学架构光波导外观形态趋近日常眼镜且通过增大眼动框范围更易适配不同脸型用户有助于推动消费级 AR 产品显著升级是AR领域主流技术。波导的概念顾名思义它是一种物理光学结构设计可以使光线曲折进入人的眼睛。这被用于内部的反射以及光线进出的控制工业上有四种波导结构设计。全息波导 (Holographic waveguide)这是光学元件中的一种简单的波导类型例如用于通过一系列内部反射进行耦合进入和外耦合退出。这种类型用于Sony 的 Smart Eyeglass。图8 全息波导衍射波导 (Diffractive waveguide)精准的起伏表面起伏光栅用于实现内部反射从而通过显示器实现无缝3D图形的覆盖。这些波导用于许多Vuzix 显示设备和Microsoft的Hololens中。图9 衍射波导偏振波导 (Polarized waveguide)光进入波导并通过部分偏振表面上的进行一系列内部反射。选定的光波会抵消偏振并进入观看者的眼睛。该方法由Lumus DK-50 AR眼镜使用。图10 偏振波导反射波导 (Reflective waveguide)类似于全息波导其中单个平面光导与一个或多个半反射镜一起使用。在爱普生的Moverio和Google Glass中都可以看到这种波导。图11 反射波导当前衍射光波导理论上具有较高的可加工性成本可控批量生产难度显著低于阵列光波导现已成为国内外标杆企业研发创新的活力区。眩晕控制发展符合人眼双目视觉特性的近眼显示技术成为虚拟现实眩晕控制的技术制高点。从人眼双目视觉特性看业界公认的眩晕感主要源自三方面。一是显示画质纱窗、拖尾、闪烁等过低的画面质量引发的视觉疲劳容易引发眩晕提高屏幕分辨率、响应时间、刷新率降低头动和视野延迟MTP成为技术趋势。二是视觉与其他感官通道的冲突强化视觉与听觉、触觉、前庭系统、动作反馈的协同一致成为发展方向目前除前庭刺激、服用药物等非主流方式外全向跑步机成为缓解此方面眩晕感的主要技术。三是辐辏调节冲突Vergence Accommodation ConflictVAC由于双目视差在产生3D效果的同时造成双目焦点调节与视觉景深不匹配VR 头显难以如实反映类似真实世界中观看远近物体的清晰/模糊变化。目前可变焦显示Vari-focal Display成为解决VAC问题的重要技术Facebook已经应用到其产品并在不断优化有望极大程度的优化了头显体积重量与系统可靠性。还有全息显示也是解决VAC的技术路径但是当前技术成熟度低。总体我国在近眼显示领域与国际一流水平差距不大需强化部分前瞻领域技术攻关。2. 内容制作作为新一代人机交互界面虚拟/增强现实契合时下新媒体所追求视觉沉浸感与用户交互性的发展趋势。虚拟现实内容制作技术开始广泛应用在“采、编、播” 以及交互等环节注入了创新活力。内容采编播内容采集环节由于虚拟、增强现实可提供360度、720度的全景视频需要360度拍摄编导与摄影师等工作人员站位、观众视觉兴趣点引导、多相机同步控制等新问题对内容采集带来挑战。用于全景拍摄的相机可分为手机式、一体单目式、一体多目式、阵列式、光场式等。全景相机发展呈两极化演变态势一方面为方便更多UGC快速便捷的制作虚拟现实内容会朝着小型化、易用化、多功能、机内拼接、降低成本方向发展。另一方面为满足高端 PGC 生产高质量视频内容更高分辨率、自由度、更多视频格式与斯坦尼康等拍摄辅助器材支持成为又一发展路线。全景声麦克风Ambisonic可以采集单点所有方向的声音作为一项既有拾音技术随着虚拟现实的兴起被业界关注目前谷歌、Oculus 已将其作为 VR 的声音格式。内容编辑环节由于虚拟现实相机涉及多镜头同时拍摄从而产生出视频间精准拼接缝分割内容编辑技术。根据实现方式的不同可分为实时、离线拼接与自动、手动拼接等。英伟达推出其拼接编辑软件 VRWorks360可实现单一VR相机中多达32个拍摄镜头的跨平台的实时拼接。除全景视频所须的拼接分割外为进一步增加内容互动性与社交性可通过虚拟化身技术实现以机器或是以真实用户为对象的模拟后面的交互体验部分会详述。内容播放环节由于虚拟现实需要解决如何将内容编制时的平面媒体格式转化为用户最终看到的全景球面视频因此运用了传统视频没有涉及的投影技术。其中等角投影是 YouTube、爱奇艺等采用的主流技术但存在画质失真、压缩效率低等问题多面体投影成为发展方向。平台技术操作系统有挑战。相比手机OS对于虚拟现实用户姿态变化难以做出实时性响应虚拟现实OS不论用户主动操作与否从姿态到渲染保持稳定运行MTP时延约束成为实时性挑战。由于虚拟现实空间可极大延展支持用户同时可见更加丰富信息操作系统多任务特性成为必然需求。在三维系统中的多任务化须实现系统多应用的三维化合成在虚拟现实空间中布置各应用的运行位置并实现 3D 交互如微软 Hololens、Facebook Quest等代表性终端对操作系统三维化多任务运行的支持。2020年虚拟现实操作系统持续演进VR、AR OS在感知交互方面日渐趋同基于计算机视觉成为发展重点Facebook发布 Oculus Quest 系列验证了计算机视觉实现的可行性和准确性但是挂载4颗以上实时性要求较高的摄像头操作系统亦须适配调优。WebXR生态发展。2020年7月W3C 发布新版WebXR规范草案与此前WebVR相比WebXR新增了对6DoF追踪定位、交互外设与AR应用的支持多个网页开发框架均已支持。当前内容不足是XR面临的主要痛点内容生态效率受制于碎片化的软硬件平台的影响2019年7月Khronos对此发布了 OpenXR 旨在实现内容应用无须修改移植即可跨头显平台运行。同时OpenXR强化了对WebXR网页开发框架的支撑适配了手势、眼动追踪等多元化交互方式丰富了5G边缘计算等应用场景。在操作系统方面实时性、多任务、感知交互与端云协同成为当前发展焦点。云化虚拟技术。对于云化虚拟现实业务需求如何同步终端和云端数据成为操作系统技术演进焦点如微软推出 Hololens云方案用户可在云端记录三维地图扫描信息。开发引擎方面基于OpenGL ES底层框架面向移动设备的低功耗、可视化开发引擎助力VR应用开发效率提升。对于移动虚拟现实设备如何平衡性能和功耗成为选择虚拟现实开发引擎的关键因素。交互体验从用户与内容应用间的交互程度看虚拟/增强现实业务可分为弱交互与强交互两类。前者通常以被动观看的全景视频点播、直播为主后者常见于游戏、互动教育、社交等形式内容须根据用户输入的交互信息进行实时渲染自由度、实时性与交互感更强。在弱交互领域虚拟/增强现实视频的社交性、沉浸感的提升强弱交互内容界线趋于模糊。当前体育赛事、综艺节目、新闻报道与教育培训等直播商业落地相对成熟。VR直播新形式根据交互体验自由度划分虚拟现实视频可分为基于视野转动的3DoF、面向狭小空间内有限移动的 3DoF、房间级一定空间内6DoF-及多房间或超大开放空间中的6DoF视频。与现阶段3DoF视频相比六自由度视频摄制技术3DoF及以上可大幅提升虚拟现实用户体验沉浸性。预计未来三年可适配高质量六自由度的内容采集系统、摄制表现手法、云网端支撑环境、场景表示与编解码算法等细分领域将成为潜在挑战及有关标准工作的推进方向。此外相比传统无交互视频中单视角单结局、既往轻交互 VR 视频中多视角单结局的表现形式个性化 VR 视频除呈现多视角多结局、叙事线进程可变的特点即“你在看视频视频也在看你。在强交互领域VR社交成为游戏以外重要应用场景虚拟化身正在拉开虚拟现实社交大幕。VR场景对虚拟化身的感知与控制构成了交互闭环即追踪采集的用户数据被实时投射于虚拟化身外观及行为表现。得益于3D沉浸视频、超大视角及进阶追踪能力位置、外貌、注意力、姿态、情绪等日益多元精细的身态语汇激活了虚拟化身潜藏的社交表现力。通过营造多人共享的临场感VR社交进一步放大了虚拟现实强交互业务的互动程度并结合日常交流所须的适宜间距、注视转头、手势表情等潜藏的通识准则来优化虚拟化身。如何持续提高虚拟化身真实感同时精准调和外貌与行为拟真度间的配伍关系成为 VR 社交虚拟化身的主要技术挑战与发展方向。在技术选型上基于口、眼、表情、上肢拟真等的虚拟化身技术初步成熟现已开始用于 VR 社交应用。口型方面依托三维扫描人类发声时对应的面部拓扑特征构建包含广谱语音口型的模型库借助机器学习训练音画同步网络通过语音实时驱动面部动画。当前存在问题是口型如声音的匹配问题业界通过解构不同语音对各面部肌群的协同牵引关系旨在发展出更加自然可靠的音画同步技术。眼动方面虚拟化身可精细模拟一系列眼动眼神行为如下意识眨眼、交谈间注视、移动物体追视、多物体快速扫视、饱含情感凝视及特定情况下瞳孔放大、视野舒适区外转头等情景进而极大程度地丰富了VR 社交的表现力与真实感。预计未来三年除现有口型、眼动、微表情、手势肢体等上半身虚拟化身细分领域的优化迭代外全身型虚拟化身有望兴起。总体看我国在内容制作方面与国际一流水平各有所长须强化对部分重点领域的技术攻关。3 感知交互感知交互强调与其他领域的技术协同各大巨头与初创公司对此深度布局积极投入。当前追踪定位、沉浸声场、手势追踪、眼球追踪、三维重建、机器视觉、肌电传感、语音识别、气味模拟、虚拟移动、触觉反馈、脑机接口等诸多感知交互技术百花齐放共存互补并在各细分场景各具优势。未来理想的人机交互可让虚拟/增强现实用户聚焦交互活动本身而忘记交互界面及手段的存在越来越“透明”自然化、情景化与智能化成为感知交互技术发展的主要方向。追踪定位追踪定位是感知交互的基础和前提只有确定了现实位置与虚拟位置的映射关系方才进行后续诸多交互动作。追踪定位技术呈现由外向内的空间位姿跟踪Outside-In Position Tracking向由内向外的空间位姿跟踪Inside-Out的发展趋势。当前Inside-out 技术全面成熟追踪定位将呈现集视觉相机、IMU惯性器件、深度相机、事件相机等多传感融合的发展趋势。在VR领域存在outside-in和inside-out两条技术路线。通过超声、激光、电磁、惯导等多种传感器融合定位较单一惯性和光学定位减少了计算资源消耗在一定程度上优化了功耗与鲁棒性表现。目前基于视觉IMU的inside-out追踪定位技术实现产品化开始大量应用于头显终端代表产品有 Oculus Quest1/2、HTC Vive Focus等。在AR领域Inside-out是唯一主流技术路线基于终端平台的差异视频投射式ARvideo see-through以苹果 ARKit、谷歌ARCore、华为AREngine 以及商汤 SensAR为代表的AR SDK普遍遵循单目视觉IMU融合定位的技术路线在2019年对其跟踪精度和鲁棒性进行了进一步提升毫米级别的定位精度使得AR尺子等空间测距等应用大量出现。光学投射式 ARoptical see-through以微软Hololen2、Magic Leap One为代表的AR眼镜普遍遵循双目/多目视觉 IMU 融合的技术路线可提供毫米级别精准度的定位输出和世界级规模的6DoF追踪定位其中SLAM算法的稳定性主要受光线与环境复杂程度影响。由于室外光线会影响到摄像头的使用Oculus 在黑暗条件下难以提取环境信息从而影响 SLAM 结果。Hololens2采用TOF 提供主动光辅助定位在一定程度上缓解了该问题。环境复杂度表现为AR眼镜受限于摄像头可实现高精准度获取信息的范围限制在过于空旷无参照物的环境中难以实现厘米级别定位。此外随着基于神经拟态视觉传感器dynamic vision sensor的事件型相机技术发展利用其高帧率、抗光照等特性追踪定位技术鲁棒性有望进一步提升。手势追踪初步成熟将成为虚拟现实输入交互新模式。手势追踪技术的价值优势在于手是天然的输入工具无需购买链接设备且手势信息等身态语表现力强赋予了内容开发者更大的创作空间。当前基于黑白/RGB 摄像头的机器视觉技术路径已成为标记点、3D深度摄像头方案外手势追踪的重点实现方式。当前手势追踪技术在多维发展方向上初步成熟。在算法鲁棒性优化方面通过收集用于深度学习的多类人群手势及环境数据可探知手部位置及关节指尖等特征点信息进而结合反向动力学算法构建手部3D 模型。在计算及功耗开销控制方面通过深度神经网络量化压缩技术精准可靠的手势追踪算法得以在移动式虚拟现实终端上一体式、手机伴侣以较低算力、时延与功耗预算运行。在交互表现性探索方面时下业界围绕人因工程视角就输入交互进行创新设计以“捏”代“按”可有效节省交互空间明确交互起止时点获知输入反馈。除单手追踪外双手、手与笔、手与键盘、手与控制器等外设配合成为手部交互表现性探索的新方向。眼动追踪成为虚拟现实终端的新标配。早期虚拟现实终端以头动追踪为主当前用户需求开始对眼动追踪提出了更高要求。眼动追踪主要涵盖注视点追踪、瞳孔位置尺寸追踪、眼睑数据采集、生物识别等得益于该领域在虚拟现实融合创新与以人为中心研发思路上的技术潜力眼动追踪日渐成为VR/AR 终端的新标配且应用场景趋于多元。例如注视点追踪可用于眼控交互、可变注视点渲染与注视点光学、FOV一致性补偿、可变焦显示系统中的辐辏调节冲突控制等任务场景。眼动追踪技术主要分为基于特征与基于图像的发展路径。两种方案均须红外摄像头与 LED完成前者通过光线在角膜外表面上普尔钦斑Purkinje image反射以推算瞳孔位置已成为业界主流技术方案。当前眼动追踪技术发展的难点在于眼动算法如何基于所采集的原始眼动行为来“透视”用户意图。此外除追踪精度指标外用户个体与环境差异眼球角膜、佩戴眼镜、周围光线等对系统通用性提出了更高要求。环境理解环境理解以及3D重建将成为虚拟现实感知交互领域技术内核之一。环境理解呈现由有标识点识别向无标识点的场景分割与重建的方向发展。相比VRAR大部分视野中呈现真实场景如何识别和理解现实场景和物体并将虚拟物体更为真实可信的叠加到现实场景中成为 AR/MR感知交互的首要任务而基于机器视觉的环境理解成为这一领域的技术焦点。在AR应用的早期绝大部分AR引擎通过获取图像中标识点Marker的特征信息并与预存的模板进行匹配来识别当前Marker 的种类及位置信息Marker从如ARToolkit等有明确边缘信息和规则的几何形状演进到任意图像这类基于标识点的识别技术使用限制较多应用场景较为狭窄。随着深度学习和即时定位与地图构建SLAM等识别和定位重建技术的发展普及未来的VR/AR将不仅局限在对特定Marker的识别而会逐渐拓展到对现实场景的语义与几何理解。在语义理解方面主要任务是利用卷积神经网络CNN对单帧图像或连续多帧视频中所出现的物体和场景进行识别和分割大致分为分类、检测、语义与物体分割即确定图像中物体类别、大概位置、物体基本边缘轮廓以及针对分割出的同类物体进一步分割底层组成部分。在几何理解方面SLAM早期应用在机器人领域以出发地点为起始位置在运动过程中通过重复观测到的地图特征来定位自身位置和姿态再根据自身位置增量构建地图达到同时定位和地图构建的目的。在XR领域SLAM 广泛用于Inside-Out追踪定位中。3D重建在数据采集方面由于早期发展受到深度图像传感RGBD器件功耗和精度的限制环境重建技术门槛较高。随着OPPO、三星华为等主流手机厂商旗舰机型上预制深度相机激光雷达大幅降价以及微软发布的 Kinect V4版本可提供720P高精度深度图使得低成本、高速率生成可用于VR/AR的高质量3D模型成为可能对周边环境和物体的理解和建模逐渐平民化。基于RGBD相机的动态语义化重建技术逐渐成熟针对人体形状、运动、材质不易描述等难点基于参数化人体模型和人体语义分割的语义化分层人体表达、约束及求解方式在提升人体三维重建精度的同时实现了人体动态三维信息的多层语义化重建。在数据处理方面随着AI能力的渗透释放2019年学界出现较多基于单目RGB进行深度估计、人体建模、环境建模的学术论文并开始快速进行技术产业化推进。AI与三维重建技术的融合创新使二维到三维图像转化以及三维场景理解成为可能。通过海量真实三维重建数据的训练能够实现单目深度图像估算通过二维照片估算出真实空间的三维深度数据从而生成准确的 3D 模型。借助点云金字塔模型提取出三维点云在多个尺度上的局部特征再通过图模型的三维点云语义分割和特征聚合可完成三维点云体素级别的分类并最终实现基于三维点云数据的场景理解。沉浸式声场沉浸声场尚待发掘如听音辨位、空间混响、通感移觉等成为发展重点。虚拟现实沉浸体验的进阶提升有赖于对视觉、听觉等多感官通道一致性与关联性的强化。由于周边环境、头耳构型等多重因素会影响双耳听觉闻声辨位人们通过转头寻视声源以消除定位判定的模糊性。虚拟现实可结合用户头部追踪特性解决数字内容长久以来双耳听觉的问题。基于多通道3D全景声场拾音技术Ambisonics声音表现可依据用户头动情况进行动态解码虚拟现实用户即可实现更加精准的听音辨位。另外耳机佩戴致使 3D 全景声被“压扁”如何解决因声音高低位置出现的辨位失真成为关键问题。目前各大巨头对沉浸声场积极投入并结合人体 3D 扫描开始构建差异化的头部相关传递函数HRTF数据库旨在进一步实现虚拟现实声音的“私人定制”。由于游戏等应用仅可准确渲染直达声缺少对房间声学中早期反射和混响的逼真模拟。在混响声模拟技术方面以往开发人员须将混响手工添加至虚拟环境中的各个位置操作修改复杂耗时对算力与内存资源需求较高且因各声学响应预先计算仅用于结构保持固定的静态环境。当前Facebook等企业在房间声学上取得了一定成果混响声可根据环境的几何形状自动精准生成且符合实时虚拟现实应用严格要求的计算和内存预算同时实现了随环境空间构型变化的动态混响声模拟如VR密室等探秘游戏。总体看感知交互领域国内外存在一定差距且差距呈现扩大趋势。4 渲染处理渲染处理主要涉及两部分一是内容渲染生产过程在内容制作过程中将三维虚拟空间场景投影到平面形成平面图像的过程。二是终端渲染展示过程即对内容渲染生成的平面图像进行光学畸变、色散校正以及根据用户姿态进行插帧的处理过程。所有的渲染技术旨在提升渲染性能以小的开销来渲染更高分辨率、达成用户可感知的细节内容。其中VR 渲染关键在于复杂的内容运算如两倍于普通3D应用的GPU运算量、实时光影效果等ARMR渲染技术与VR基本一致但应用场景侧重于与现实世界的融合如虚实遮挡、光影渲染、材质反光渲染等。未来虚拟现实渲染技术将持续向更加丰富、逼真的沉浸体验方向发展因此在硬件能力、成本和功耗制约及 2020 年前后 5G 商用的情况下注视点渲染、云端渲染、渲染专用芯片、光场渲染等有望成为业界主流。注视点渲染注视点渲染Foveated Rendering基于人眼由中心向外围视觉感知逐渐模糊的生理特性搭配眼球追踪技术在不影响用户体验的情况下显著降低注视点四周的渲染负载最多可减少近80%画面渲染。除注视点渲染突出的技术成效外由于该技术与MultiView、多分辨率渲染、眼球追踪、实时路径追踪、注视点传输以及可减少视觉伪影的注视点图像处理等热点技术交织关联。基于眼球追踪的注视点渲染与注视点光学成为热点技术架构。由于提供高分辨率与色彩视觉的视锥细胞集中分布在人眼最中心区域Fovea眼球中央向外的区域视觉感知加速模糊30°内每远离 2.5°视觉分辨率降低一半业界据此提出注视点渲染技术通过对视场角内各部分画面进行差异化渲染显著节省算力开销。2020年10月Facebook发售第二代VR一体机 Quest 2新增动态固定注视点功能Dynamic Fixed Foveated Rendering, DFFR系统可根据GPU帧率高低自动决定是否触发固定注视点渲染。此外注视点光学通过组合低分辨率/大FOV60°与高分辨率/小FOV20°两个显示系统且以手机面板与微显示器或两个不同分辨率的微机电MEMS扫描显示系统为常见搭配旨在实现用户体验分辨率不因渲染算力与显示像素数减少而降低。当前注视点渲染与注视点光学日益成为支撑上述目标的焦点性技术架构已成为时下技术产业化的主攻方向。图12 各类注视点技术基本情况云渲染云渲染聚焦云网边端的协同渲染时延不确定性成为关键技术挑战。将虚拟现实交互应用所须的渲染能力导入云端有助于降低终端配置成本帮助用户在移动头显平台获得媲美高价PC级的渲染质量。在云化架构的引领下各类内容应用可更便捷地适配差异化的终端设备也有助于实施更严格的内容版权保护措施遏制内容盗版缓解用户体验痛点清单中的部分问题。本地渲染与云渲染并非完全对立相比单机版渲染依赖终端完成云渲染并非完全依靠云侧进行要解决的是云网边端协同分工旨在实现云网协同。当前针对时延、带宽、丢包、抖动等技术挑战业界通过调节CPU与GPU协同编码、前向纠错率、缓冲区大小等方式实现QoS保障。除流媒体QoS视角外ATW/ASW成为虚拟现实渲染标配的“弃帧保险”由于ATW导致视觉黑边可通过扩大渲染面积予以解决。此外在虚拟现实体验过程中用户即便没有位移眼睛亦会发生位置改变因而引入ASW前者适用于远景静物后者侧重近景动画。下图为中国移动 5G 联合创新中心《5G云XR端到端能力需求研究报告》给出的数据。图13 基于时延不确定性的云渲染情况示意人工智能人工智能将成为虚拟现实渲染质量与效能的倍增器与调和剂。当前业界日益聚焦深度学习渲染这一热点领域以期针对多样化的业务场景解锁平衡质量、速度、能耗、带宽、成本等多维渲染指标间的技术定式。在渲染质量方面比之基于传统渲染软硬件架构的超采样SSAA、多重采样MSAA、快速近似FXAA、子像素增强SMAA、覆盖采样CSAA、时间性抗锯齿TXAA等抗锯齿技术在 2018 年英伟达发布 GeForce RTX 20 系列显卡中推出了包含深度学习超采样DLSS功能的驱动程序通过以较低分辨率渲染图像再经AI算法填充像素的方式显著提升了画面精细程度。在渲染效能方面为在移动终端平台加载高质量的虚拟现实沉浸体验业界结合深度学习与人眼注视点特性积极探索在不影响画质感知的情况下如何进一步优化渲染效能的技术路径。脸书提出一种基于AI的注视点渲染系统DeepFovea利用生成对抗网络GAN的新近研究进展通过馈送数百万个真实视频片段模拟注视点外围像素密度降低来训练 DeepFovea 网络GAN 的设计有助于神经网络根据训练视频的统计信息来补缺细节进而得到可基于稀疏输入生成自然视频片段的渲染系统。测试显示该方案可将渲染计算负载降低约十倍且能够管理外围视场的闪烁、锯齿和其他视频伪影。在图像预处理方面预先对图像进行降噪处理有助于提升后续图像分割、目标识别、边缘提取等任务的实际效果与传统降噪方法相比深度学习降噪可获得更优的峰值信噪比PSNR与结构相似性SSIM如英伟达 OptiX 6.0 采用人工智能加速高性能降噪处理从而减少高保真图像渲染时间。在端云协同架构方面随着电信运营商云化虚拟现实发展推广针对多样化的应用场景与网络环境人工智能有望成为渲染配置自优化的重要探索。总体看在渲染领域国内外差距显著当前注视点技术和人工智能方面主要是跟随为主但是国内已经有企业开始积极投入。5 网络传输面向虚拟现实的网络传输强调基于针对虚拟现实带宽、时延双敏感的业务特性优化适配各类网络传输技术探索网联式云化虚拟现实技术路径旨在保证不断进阶视觉沉浸性与内容交互性的同时着力提升用户使用移动性降低大众软硬件购置成本加速虚拟现实普及推广。与VR相比由于AR侧重与真实环境的人机交互须将摄像头捕捉到的图片/视频上传云端云端实时下载需要增强叠加显示的虚拟信息因此需求更多的上行带宽。鉴于虚拟现实网络传输涉及接入网、承载网、数据中心、网络运维与监控及投影、编码压缩等技术领域有关技术产业化进程。和超高清类似在接入网、承载网等方面相关技术如网络切片边缘计算等在此不详述只讨论XR相关的部分。在数据编解码传输方面传输预处理目前虚拟现实视频编码仍主要使用HEVC针对VR 360度视频的编码已经标准化编码工具已经成熟。MPEG 等标准组织的研究表明对应于HEVC 的下一代编码技术H.266的压缩效率可提升30%。VR传输方案两种方式一种是全视角等质量传输终端接收到的一帧数据中包含了用户可看到的空间球对应的全部视角信息属于用“带宽换时延”的做法很大一部分传送到用户端的内容数据被浪费。另一种是FOV传输技术渐渐成为主流终端接收到的一帧数据是根据用户视角姿态构造对应的帧数据终端判断用户转头改变视角的姿态位置并发送至云端请求新姿态对应的帧数据。该技术对带宽要求降低时延要求变高属于“时延换带宽”。现阶段FOV传输技术存在以下三条发展路径一是Facebook提出的金字塔模型即在内容准备侧针对每个视角准备一个全视角的质量不均匀的码流模型底部为高质量用户视角区域随着金字塔高度的上升其他区域通过亚采样降低分辨率。终端根据用户当前视角姿态位置 向服务器请求对应的视角文件。缺点是多耗费头端 GPU 编码、CDN 存储和传输带宽。二是基于视频分块Tile的 TWS 传输方案在内容准备侧将VR画面划分为多个Tile每个区域对应一个可以独立解码的码流同时准备一个低质量全视角的 VR 码流根据用户视点和视角只传输观看范围内容的高质量Tile视频分块和最低质量全视角视频。该方案被 MPEG 组织 OMAF 工作组采纳并写入了新近标准文档《ISO/IEC FDIS 23090-2 Omnidirectional Media Format》中被推荐采用。三是 FOV方案FOV不是全视角编码而是不同视点的剪切视频流编码通过传输比FOV角度略大画面来应对网络和处理时延降低交互体验对网络的要求。总体看在网络传输方面我国处在世界领先水平。以上从近眼显示、内容制作、感知交互、渲染处理、网络传输等方面对XR关键技术的分析深度有限内容相对较全面。总体看国内在感知交互和渲染处理领域发展滞后于国外尤其技术前瞻预研方面需要大力加强。
http://www.dnsts.com.cn/news/9797.html

相关文章:

  • asp 免费网站模板扫黄打非网站建设
  • 一个网站多个域名的seo优化移动应用开发专业
  • 搜索的网站后大拇指分享数量不见了长沙网站建设索王道下拉
  • 外国服务器的网站西宁网站建设西宁
  • 网站搭建软件d北京做视觉网站
  • 网站建设东莞长安镇微信群投票网站怎么做
  • 怎么分析竞争对手网站做家教的正规网站
  • 修改dns连接外国网站怎么制作小视频
  • 要个网站哪里有做网站的单位
  • 承接网站建设广告语广州市平安建设 网站
  • 有没有什么网站专门帮人做问卷wordpress 轻论坛
  • 网站宣传工作ui设计周末培训学校
  • 建设企业网站的好处是什么h5网站设计方案
  • 网站建设培训班南宁苏州苏州设计公司
  • 用自己的电脑做服务器建网站名人朋友圈网页版qq登录入口
  • 做旅游的海报图片网站上海好的网站设计公司有哪些
  • 餐饮网站建设公司黄骅港赶海攻略
  • 网站怎么显示建设中房产信息网上自助查询
  • 怎么做电力设计公司网站长图片生成器在线制作
  • 北京建设高端网站进贤网站建设
  • 医院网站HTML5把asp.net写的网站别人怎么访问
  • 太仓智能网站开发墨刀做网站上下滑动的交互
  • 用npp做网站网站备案号是什么意思
  • 好建网站做细分领域的同城网站
  • 夸克网站免费进入建立一个app平台需要多少钱
  • 自己做网站开发24小时学会网站建设
  • 织梦网站导航浮动网站打开速度
  • 东莞建设网 东莞市住房和城乡建设局门户网站产品开发设计流程
  • 网站开发项目需求方案残疾人无障碍网站建设
  • 高校网站建设的问题及对策地推是什么意思