ZKX's LAB

清华大学崔勇:MEC VR成为创新思路

2020-11-06新闻26

C114讯 11月5日消息(安迪)在今天举行的中国移动“5G+E”网边融合技术峰会”上,清华大学计算机科学与技术系教授、网络技术研究所所长崔勇发表了“基于边缘计算的沉浸式VR”的主题演讲。崔勇表示:基于现有通信技术的MEC VR成为创新思路,可通过MEC提升计算能力,通过协同渲染解决带宽、时延等问题。

2016年就进入了VR元年。而近两年,VR新品与核心技术不断涌现,例如爱奇艺VR一体机,高通推出了VR芯片骁龙835,谷歌推出AR Core,Facebook推出社交VR等实时互动的最新相关VR,索尼推出VR实时互动桌游,华为VR眼镜获得2019世界VR产业大会创新金奖,近日华为发布VR Glass 6DOF游戏套装等,说明大厂依然在VR/AR方面发力。

但业界也有人认为VR寒冬将至——应用未果,投资遇冷。究竟是缺乏应用场景,还是技术不够呢?

在崔勇看来,VR/AR的技术痛点包括:由于VR响应时延需要非常低(小于25ms),沉浸式VR的基本需求包括高刷新率(100Hz)、4K及深度图像等高质量图像、360度全景视角,因此难点在于时延、高清、交互,也就是超高清实时交互。在这种情况下超高清实时交互需要计算来提供实时交互,但是高清渲染计算在哪算?如果手机或VR头盔的GPU进行实时渲染会导致用户体验画面卡顿、手机温度过热等问题,因此VR业界正在呼唤高性能计算设备。

崔勇分析了移动VR应用的核心技术难点,边缘计算模式霞,PC端VR在PC上渲染计算高质量图像,将图像实时传输至移动端,画质体验好但移动受限制。如果让PC服务器进行高性能的图像计算,将计算好的图像实时传输到移动端,但大家看到的商店里各式各样VR产品都戴着小辫子,戴上VR眼镜玩一会儿看不到小辫子在哪就很容易摔倒。如何砍断小绳子、打造高质量移动VR呢?对此业界这几年研究了不少方案,包括预渲染和缓存预测,都难以做到实时交互。

“基于现有通信技术的MEC VR成为创新思路,可通过MEC提升计算能力,通过协同渲染解决带宽、时延等问题。”崔勇表示:移动VR的内容可以分为前景交互和背景交互,前景交互随机、不可预测、工作量小,但要求实时渲染,可在移动端渲染;背景交互环境连续、可预测、工作量大,可提前在边缘服务器渲染。这就需要协同渲染:一是手机GPU根据实时交互渲染前景;二是远端GPU预渲染背景并进行编码;三是将临近的编码数据帧预先传输到手机;四是手机CPU根据实时交互解压并协同显示。如果传输带宽不足,可降低背景传输带宽,离散化虚拟世界,预先渲染全景帧、采用H.264预先编码;如果遇到延时挑战,可基于移动预测,手机预取置临近的帧;手机上解码一个全景帧大约需要40ms的时延,通过并行解码显著降低解码时延。通过这样设计,可把原来手机上只能看到的每秒5到7帧的内容提升到每秒60多帧,跟手机刷新频率差不多,并且30分钟使用了手机不会发热或发烫,GPU和CPU计算资源使用率尚可,网络传输平均带宽127-130Mbps。

边缘计算确实是非常重要的技术创新,崔勇认为,未来MEC的新业务和新需求还包括从VR到云游戏,以及沉浸式远程教学。

#虚拟现实#边缘计算#崔勇

随机阅读

qrcode
访问手机版