从技术原理看元宇宙的可能性:Omniverse如何“造”火星

来源:澎湃新闻 日期:2022-07-26

  王子健则以自己的实际工作内容举例,“最早期要拿三维软件做,做完一个模型要贴图,最后成为一个场景,渲染出来就变成照片输出,如3ds Max存储格式是3DS。但各个软件形成资产只能是自己的工程文件,资产的意思即能够交互,各家如果是自己的文件格式交互起来非常困难。这会造成什么结果呢?就是A软件模型做得挺好,B软件打开之后还得再去修改,修改之后的东西A软件再打开又需要再修改。”

  USD的模式就基于标准化的数据结构,呈现的质量可以保证一致,即光照、色彩、整个模型本身材质表现都是统一的,所以在此基础上就可以实现协同创作。

  “如果数字资产不能标准化,其实数字协同是没有办法实现的,所谓的协同工作就是空谈。”王子健继续说道。

  怎么理解这里的“数字资产”,为什么数字协同如此重要?

  数字资产、数字协同与实时光线追踪技术为什么重要?

  据王子健解释,如果是以USD作为格式进行保存就可以被多个软件复用,从而这个格式的文件就被叫做数字资产。数字资产还有第二个功能即可迭代,这个迭代不被破坏。“比如我造了一个月球车,这个月球车是第一个版本,如果我造第二个版本起码得另存一个,然后就得破坏性地改。但USD可以避免这个问题,即在原有的基础上进行版本控制‘小修小改’。这样的话对数字资产的保存就会形成复用,也有了可追溯的可能性。”

  那么在此基础上,才有了数字协同的可能。

  在原来传统的模式下,整个线性的工作流程下,视觉导演到最后一刻才能看到完整的成片,如果有改变那么一切都要相适应调整,甚至从头改。这样损耗就非常大,造成的直接结果就是制作周期显著拉长,伴随的还有人员以及设备的开销,整个花费就会剧增。

  而基于实时的迭代模式,最重要的改变就是实现了“所见即所得”。也就是说,视觉导演能够观察到每一步,看到模型、场景,包括气氛等各种各样的元素摆在一起呈现的样貌,同时针对现有实时呈现的画面反过来即时修改台本。这就不只是单纯制作上传下达的任务模式,而是一个互相依托的迭代创作模式。

  更进一步说,这样的技术支持下,创作思路实时的更改和变化可以直接被相关工种实时反应、迭代和呈现,这也是数字协同的意义。

  另一个重要的技术进步则是实时光线追踪。2018年,英伟达发布了实时光线技术,将实时光线追踪与AI结合起来落地应用。

  “光线追踪是一个理论,基于光线追踪这套理论才能完全模拟现实世界,做到模拟现实世界的渲染。2018年英伟达推出实时光线追踪技术,某种程度上算是倒逼工业流程,以前很多做不了的事情都可以做了。”王子健说道。

  具体而言,比如一束光打到瓶子上,这样一个镜头可能有五秒钟。按照央视的标准一秒钟要渲染五十张照片,五秒钟就是二百五十张照片,以一张照片渲染八个小时计算就是2000小时。如果这个时候导演发现机位错了,需要重新再来一遍,那么2000小时就没用了。

  实时光线追踪技术以后,2000小时就变成实时了,一秒钟能直接渲染五十张。这又关联到之前传统的线性工作模式,“为什么之前是线性的?因为大家都关注怎么减少沟通成本。但现在有实时渲染技术可以直接在现场看,所以才敢谈实时协同,成本一下子降低了。以前做一个片子可能需要三四个工作室,苦干半年,导演在几个工作室之间跑来跑去。现在一下子把制作变成扁平化了,几十个人在一个环境下花一两个月就把片子做出来了。”王子健谈道。

  “实时光线追踪技术让我们看到一个新的可能,它可能会给创意市场增加2000-3000亿美金市场,促进设计师用这样的技术做出他的作品。有了图形可视化与AI之后,后来发现还可以结合以前做的物理学引擎、XR技术,之后就进一步衍生出把这个技术打造成一个平台的想法。后来发布的Omniverse就是包含各种渲染技术提升的结果。”英伟达中国区 Omniverse 业务发展经理何展表示。

  对于最新的技术进展,王子健则表示,“在此基础上现在又在进一步增强,使得实时渲染高质量照片级的结果越来越高,多个渲染器之间可以无缝衔接,一个场景一个按钮,比如把Real-time改成Penetrating。最后就是物理模拟、机械单元组的模拟,等于是可以通过虚拟的数字世界控制现实世界。”

    A+
声明:本文转载自其它媒体,转载目的在于传递更多信息,并不代表赞同其观点和对其真实性负责。