北京2022年8月24日 /美通社/ -- 近日,在浪潮 & NVIDIA元宇宙算力發(fā)展研討會上,浪潮信息和NVIDIA分享了如何使用浪潮元宇宙服務(wù)器MetaEngine與NVIDIA Omniverse快速構(gòu)建高逼真的交互型數(shù)字虛擬人。
數(shù)字人生產(chǎn)需要強(qiáng)大的多元算力支撐
虛擬數(shù)字人是元宇宙的主要實體,就像是元宇宙世界中的公民,是人類身份在虛擬世界的載體。隨著2021年元宇宙風(fēng)起,更高擬真、超寫實,具有強(qiáng)交互性的新一代虛擬人開始涌現(xiàn),且正在被規(guī)?;瘧?yīng)用到不同產(chǎn)業(yè)場景。
數(shù)字人生產(chǎn)可以拆分成人物建模、人物驅(qū)動、人物渲染和感知交互四個作業(yè)環(huán)節(jié)。AI能夠加速虛擬數(shù)字人生產(chǎn)的每個作業(yè)環(huán)節(jié),可以說AI正在改變數(shù)字人的生產(chǎn)范式,將數(shù)字人的創(chuàng)作周期大幅縮短,提升生產(chǎn)效率,推動數(shù)字人產(chǎn)業(yè)快速發(fā)展。
這樣一種新范式的背后其實是更巨量和多元的算力需求。具體而言,數(shù)字人和其他實體的建模需要眾多設(shè)計師協(xié)同創(chuàng)作完成,這就需要底層平臺具有強(qiáng)大虛擬化和云端協(xié)同計算能力;當(dāng)數(shù)字人建模完成之后,數(shù)字人自身的運(yùn)動,數(shù)字人和其所處的數(shù)字環(huán)境、以及其他實體的相互作用需要大量的結(jié)構(gòu)力學(xué)、彈性力學(xué),以及多體動力學(xué)等物理仿真算力需求;讓數(shù)字人無限接近自然人,需要高逼真、沉浸感的3D渲染,例如阿麗塔高度擬真的視覺特效來源于光線追蹤、光柵化、DLSS等巨量的圖形圖像算力支撐;在智能交互環(huán)節(jié),由AI驅(qū)動的數(shù)字人往往需要結(jié)合語音識別、NLP、DLRM等AI算法從而實現(xiàn)交互能力,這些模型的背后需要強(qiáng)大的AI算力來支撐其訓(xùn)練和推理。此外,現(xiàn)實世界和數(shù)字世界的交互則需要超低延遲的網(wǎng)絡(luò)數(shù)據(jù)傳輸,來創(chuàng)造更流暢的沉浸式的數(shù)字世界體驗。
由此可以看出,元宇宙的構(gòu)建和運(yùn)行需要強(qiáng)大的多元算力支撐。這也對算力基礎(chǔ)設(shè)施提出了更高的要求,不僅是高性能、低延遲、易擴(kuò)展的硬件平臺,還需要有端到端、生態(tài)豐富、易用的軟件棧。
浪潮MetaEngine:元宇宙算力平臺
浪潮元宇宙服務(wù)器MetaEngine就是要打造支撐元宇宙的軟硬一體化算力基礎(chǔ)設(shè)施。為此,浪潮與英偉達(dá)聯(lián)合打造業(yè)界超強(qiáng)軟硬件生態(tài),為數(shù)字人和數(shù)字孿生的構(gòu)建提供多元算力,以及豐富的技術(shù)和工具,為用戶打造高效的元宇宙協(xié)同開發(fā)體驗。
在硬件上,MetaEngine采用浪潮領(lǐng)先的異構(gòu)加速服務(wù)器,支持最先進(jìn)的CPU和GPU,具有強(qiáng)大的RDMA通信和數(shù)據(jù)存儲能力,可提供強(qiáng)大的渲染和AI計算能力。
在軟件上,MetaEngine可以支持對應(yīng)每個作業(yè)環(huán)節(jié)的各類專業(yè)軟件工具,用戶可以根據(jù)使用習(xí)慣靈活選擇。同時系統(tǒng)全面支持NVIDIA Omniverse Enterprise,是經(jīng)過優(yōu)化的OVX系統(tǒng),可提供用于構(gòu)建和部署大規(guī)模數(shù)字孿生的相關(guān)功能及性能。用戶可以通過Kit功能將不同的SDK進(jìn)行模塊化的組合,快速完成定制化App或者微服務(wù)的開發(fā)。互聯(lián)插件CONNECT可以通過通用數(shù)據(jù)格式USD實現(xiàn)第三方專業(yè)軟件工具無縫連接,目前CONNECT已經(jīng)提供了20多種Plugins,支持與3DS MAX,UE, MAYA等軟件互聯(lián),解決不同軟件之間難以打通、互操作性弱的痛點(diǎn)難題。
MetaEngine還整合了浪潮"源"大模型和浪潮AIStation智能業(yè)務(wù)創(chuàng)新生產(chǎn)平臺的能力。浪潮"源"大模型參數(shù)規(guī)模高達(dá)2457億,具備知識問答、多輪對話、中英翻譯、寫作古詩等零樣本或小樣本的推理能力,可以讓虛擬人像人類一樣進(jìn)行自然語言交互。而針對浪潮"源"需要多GPU計算設(shè)備協(xié)同工作的問題,浪潮AIStation可實現(xiàn)多計算資源的智能調(diào)度管理,保證模型服務(wù)的高吞吐、低延遲。
浪潮MetaEngine - NVIDIA Omniverse快速構(gòu)建高逼真交互型數(shù)字人
浪潮信息與NVIDIA強(qiáng)強(qiáng)聯(lián)手,基于MetaEngine和NVIDIA Omniverse Enterprise推出了具備統(tǒng)一多軟件格式、支持多人協(xié)作、支持實時驅(qū)動和實時光線追蹤渲染的虛擬人解決方案,強(qiáng)大的算力平臺及豐富的軟件棧讓虛擬人構(gòu)建由難變易,尤其適合大規(guī)模虛擬人制作場景。
方案集成了創(chuàng)建數(shù)字人的流程和技術(shù),可以快速生成毛發(fā)、皮膚、細(xì)節(jié)都非常逼真的超寫實數(shù)字人,幫助數(shù)字人制作用戶更好地創(chuàng)建自己的數(shù)字虛擬IP。
使用方案中的NVIDIA Ominiverse audio2face工具,通過很簡短的一段音頻輸入,就可以驅(qū)動這段語音對應(yīng)的表情,大大加速數(shù)字人的制作過程。
在動作識別方面,以往采用光學(xué)和慣性動作捕捉技術(shù),需要真人演員驅(qū)動,并使用大量的攝像頭、傳感器,制作難度大、成本高、周期長?,F(xiàn)在,借助浪潮MetaEngine - NVIDIA Ominiverse方案,可以基于人體骨骼點(diǎn)二維運(yùn)動特征向量進(jìn)行動作識別,進(jìn)一步映射到數(shù)字人軀體上,快速驅(qū)動數(shù)字人的表情和動作。
此外,還可以實現(xiàn)數(shù)字虛擬人和真實人類的交互。虛擬人可以識別真實人類的動作、肢體語言和反饋,再通過NLP模型、圖形圖像處理軟件,根據(jù)機(jī)器學(xué)習(xí)算法決定說什么話,來吸引真實的人類,和人類進(jìn)行交互。
如何使用浪潮MetaEngine和NVIDIA Ominiverse來構(gòu)建高逼真的交互型虛擬數(shù)字人呢?下面按照人物建模、人物驅(qū)動、人物渲染、感知交互的作業(yè)流程來說明。
首先可以使用UE metahuman等軟件配合Omniverse的nucleus/connect進(jìn)行3D人物形象及人臉建模。
然后通過高精仿真,讓虛擬數(shù)字人的動作和行為更加物理準(zhǔn)確。
接下來實時渲染環(huán)節(jié),RTX Renderer可以提供實時渲染能力,讓人物動畫及其場景實時立體地展示在用戶面前,通過屏幕或XR設(shè)備進(jìn)行溝通交流。
最后是智能交互,這部分需要有大量的AI模型提供支撐。用戶首先通過ASR和Vision AI模型進(jìn)行語音和圖像識別,進(jìn)一步將識別得到的結(jié)果送入全球領(lǐng)先的中文語言模型浪潮"源1.0"大模型來生成應(yīng)答的語言文本,在這個部分AIStation推理平臺會負(fù)責(zé)管理源1.0及語音模型,源回答的結(jié)果,會經(jīng)過tts模型轉(zhuǎn)化為語音,然后送入NVIDIA Omniverse audio2face,通過語音驅(qū)動數(shù)字人面部產(chǎn)生逼真的表情及面部動作,并通過RTX Renderer實時渲染能力生成動畫視頻作為輸出與用戶交互,讓對話及交互更加自然真實。