学过设计的同学应该都知道,人们不管是在电脑电视,还是手机VR眼镜里看到的3D物体,其实都是由2D的图像整合形成的,而这个通过计算机视觉把3D模型转换为2D图像的过程就是渲染,这就好比在真实生活中对一个设置好的场景进行拍照或录像。
渲染的方式多种多样,有最基础的多边形渲染,到扫描线渲染,又或是游戏玩家们张口闭口的光线追踪渲染。
渲染一帧的时间可能也从几分之一秒到几天不等。而渲染又是个复杂的步骤,它包括材料和纹理的渲染、光线的渲染、细节的渲染、反馈与完善、以及最终输出。
一部电影的离线渲染时间超乎你的想象,例如2019年上映的CG电影《阿丽塔》,每一个场景都需要用100个小时来渲染,总渲染量达4-5亿小时(平均每帧500小时)。在维塔工作室有800名工作人员、三万台电脑共同工作,天气冷的时候,甚至能看到工作室里有热气往外冒出来。
而对于电脑游戏甚至元宇宙中大量的可交互式3D模型而言,则需要用到实时渲染,将图形数据实时地计算和输出。这代表着处理器需要在一帧之内尽可能多地显示人眼能接收的信息。而1秒通常有30到120帧。比如当你在VR游戏中一转头,周遭的3D环境快速切换,就有大量的图像被实时渲染,来营造出运动中的错觉。
而在电脑中进行这样大量图像计算和处理的部件就是我们常说的图形处理器,也就是GPU了。
计算机处理大型图像时,是将其拆解成无数个大小不一的三角形平面进行贴合,画面越精细,模型的面数也就越多。
目前市面上的游戏和电影的画面呈现巨大差异,主流网络游戏一个人物的面数大约是3-5万面,要达到《阿丽塔》这种拟真程度至少需要千万面级,而VR画面所需要的计算量级更是指数级增加。在GPU算力的基础上,我们通过三维图形渲染API(如OpenGL或DirectX)和各种游戏引擎(如Unreal Engine或者Unity)最终完成渲染。
实时渲染关注的是交互性和实时性。对于用户来说,任何操作,例如手指划过屏幕、鼠标点击、键盘输入,都会导致画面重新计算,用户操作后需要实时得到反馈结果,因此实时性是非常重要的。在仿真应用中,大量数据表明,延时控制在100毫秒以内,普通人才不会明显感知到视觉画面和声音的不一致。
而这些计算即便是最先进的GPU都无法支撑。目前Meta的 Horizon Worlds 最多可容纳 20个低模型用户,运行VR Chat的简单模型和四五十人的小场景,英伟达旗舰款GPU RTX3080最多也只能维持40帧。这意味着现有的GPU算力必须提高百万倍,才能兑现元宇宙的核心体验:实时交互。
因此,实时云渲染目前看来是最有可能获得如此大算力的解决方案,即在远程的服务器中完成渲染再通过互联网传输给用户终端。但这同时也依赖云端极其庞大的计算系统和优质的网络来满足大量用户同时渲染的需求。目前AMD和OTOY等厂商都在致力于该项技术的研究。
相比元宇宙而言,大规模的实时云渲染可能并没有那么虚无缥缈,这对设计师来说也是一个注定即将到来的机会。实时云渲染将提供更强大的全方位表现力和无与伦比的沉浸感,所以设计师发挥的空间将会迅速扩大。
同时3D建模和渲染的引擎也必将更加普及和易用,不同程度的设计师都可以进行3D场景和模型的创作。
3DCAT实时渲染云作为瑞云旗下一款集实时渲染、实时3D可视化、像素流送等相关技术服务于一身的实时渲染云平台,3DCAT实时渲染云基于云端强大的图形渲染算力,渲染应用并实时推送到终端,为客户提供公有云+私有云的实时渲染解决方案,让终端用户随时随地、轻量化体验XR应用。
(3DCAT公有云方案架构图)
(3DCAT私有云方案架构图)
目前,3DCAT实时渲染云平台已在教育培训、汽车行业、展览展示和数字孪生相关领域提供专业的实时云渲染服务,为汽车实训、医疗实训、工业仿真、XR教育、汽车3D选配系统、云展厅、VR看房等行业提供实时云渲染解决方案。
本文《什么是实时渲染?为什么说它是元宇宙最重要的技术基石之一?》内容由__3DCAT实时渲染解决方案提供商__整理发布,如需转载,请注明出处及链接:https://www.3dcat.live/share/post-id-16