omniture

Shutterstock合作將NeRF生成式AI技術帶給全球3D創(chuàng)作者

Shutterstock, Inc.
2023-08-09 09:57 4922

Shutterstock合作將NeRF生成式人工智能技術帶給全球3D創(chuàng)作者

3D NeRF技術領域的領先創(chuàng)新者Luma Labs AI和RECON Labs的3Dpresso將探索在Shutterstock的Turbosquid平臺上進行開發(fā)和3D資產發(fā)布

Volinga AI將探索NVOL庫資產的授權和發(fā)行,并與Shutterstock在首個創(chuàng)作者網(wǎng)絡上合作,以生產按需提供的NVOL環(huán)境

洛杉磯2023年8月9日 /美通社/ -- 全球領先的創(chuàng)意平臺 Shutterstock, Inc.(紐約證券交易所股票代碼: SSTK)為轉型品牌、數(shù)字媒體和營銷公司提供高質量內容和全方位服務的創(chuàng)意工作流程解決方案,今天宣布有意與新興神經(jīng)輻射場(NeRF)技術領域領先的初創(chuàng)企業(yè)Luma Labs AI、RECON Labs和Volinga AI簽署三項不同的合作協(xié)議。這些公司在本周的SIGGRAPH 2023(第50屆國際計算機圖形學與交互技術年會暨展覽會)上宣布了各自的計劃。 

Shutterstock合作將NeRF生成式AI技術帶給全球3D創(chuàng)作者
Shutterstock合作將NeRF生成式AI技術帶給全球3D創(chuàng)作者

Shutterstock/Turbosquid創(chuàng)新副總裁Dade Orgeron表示:"我們非常高興能夠將研發(fā)工作擴展到3D人工智能技術的下一階段,并與創(chuàng)意制作領域一些最具創(chuàng)新性和前瞻性的人士合作,來實現(xiàn)這一目標。在我們努力推動人們對NeRF技術的認識和采用過程中,對我們來說至關重要的是,與那些和我們一樣致力于推進創(chuàng)意技術發(fā)展的創(chuàng)新者合作,為創(chuàng)意過程提供鼎力支持的同時,保護和補償藝術家群體。"

借助Luma和RECON Labs的3Dpresso, Shutterstock計劃利用Shutterstock廣泛的、合乎道德來源的2D/3D資產數(shù)據(jù)庫,探索快速發(fā)展的NeRF技術領域,將各公司現(xiàn)有的3D資產添加到Shutterstock的Turbosquid平臺上,以獲取商業(yè)授權。

"3D是一種強大的創(chuàng)意媒體,將成為未來故事的領先形式,這就是我們在2021年創(chuàng)立Luma的原因。我們的使命是實現(xiàn)3D大眾化,讓所有人都能享受到好萊塢品質、逼真的3D效果。對于每個使用Luma的人來說,無論是在網(wǎng)絡上還是在Unreal Engine中使用新的.luma場景,實時、高質量和逼真的3D場景現(xiàn)在都已成為現(xiàn)實。"Luma聯(lián)合創(chuàng)始人兼首席執(zhí)行官Amit Jain表示。 "作為世界領先的NeRF研究和產品公司,我們很高興探索與Shutterstock的合作伙伴關系,并將Luma一流的3D生成平臺帶給Shutterstock的創(chuàng)作者。這將進一步加速這項令人難以置信的3D技術推向每一位藝術家、每一個工作室和每一部手機!"

傳統(tǒng)上,藝術家需要幾個小時才能完成3D場景創(chuàng)作,這取決于所需景觀或環(huán)境的復雜性和分辨率。采用先進的機器學習和計算機視覺構建的NeRF技術后,3D創(chuàng)作者可以在幾分鐘內從2D視頻中生成高分辨率、逼真的3D場景。

Orgeron表示:"NeRF技術將為Shutterstock的視頻貢獻者社區(qū)提供機會,幫助建立世界上最大的基于NeRF的內容庫,從完整的環(huán)境到來自世界各地的單個對象。NeRF將通過利用攝影師和攝像師已經(jīng)熟練掌握的工具——他們的相機,徹底改變我們創(chuàng)建3D內容的方式。"

Shutterstock還與Volinga AI達成協(xié)議,探索NVOL文件的授權和發(fā)行。Volinga通過其專業(yè)的NeRF套件提供全面的NeRF相關產品和服務,以支持虛擬制作、視覺特效、電視和廣播、XR和視頻游戲。作為協(xié)議的一部分,Shutterstock和Volinga還將探索為Volinga用戶創(chuàng)建高質量內容的NVOL庫,以及第一個按需創(chuàng)建NVOL環(huán)境的創(chuàng)作者網(wǎng)絡。

這個Volinga網(wǎng)絡將補充Shutterstock現(xiàn)有的由全球超過200萬藝術家和創(chuàng)作者組成的網(wǎng)絡,他們?yōu)镾hutterstock合乎道德來源、可授權的2D、3D、視頻和音頻內容庫做出了貢獻。迄今為止,Shutterstock已通過其貢獻者基金向數(shù)十萬藝術家支付了報酬,預計還將向數(shù)百萬藝術家支付報酬,因為他們的內容知識產權在培訓Shutterstock生成技術方面發(fā)揮了重要作用,并為藝術家提供與新生成資產授權活動相關的持續(xù)版稅。

Volinga AI聯(lián)合創(chuàng)始人Fernando Rivas-Manzaneque表示:"我們的使命是釋放NeRF的全部潛力,使專業(yè)人士能夠使用這項突破性技術。這個可用于生產的NVOL資產庫將讓我們的用戶立即開始大量試驗和使用NeRF,從而降低了這項技術的門檻。 此外,我們與Shutterstock共同設想的按需生產NVOL環(huán)境的創(chuàng)作者網(wǎng)絡肯定會將虛擬制作提升到一個新的水平。"

在新的TurboSquid實驗室中,Shutterstock將發(fā)布其虛擬定位(Virtual Locations)產品的第一個示例(完整、可用于生產的NeRF環(huán)境),該公司還將與Luma、Volinga和RECON Labs以及NeRF和生成式人工智能領域的其他創(chuàng)新者密切合作,以制定捕獲高質量NeRF的規(guī)范和最佳實踐標準。

今年3月,Shutterstock還宣布與 NVIDIA 合作,為生成3D藝術家工具構建人工智能基礎模型。通過這項合作,生成式人工智能模型將通過NVIDIA的Picasso生成式人工智能云服務,使用Shutterstock資源進行培訓,以快速將文本提示轉化為用于工業(yè)數(shù)字孿生、娛樂和游戲的高保真3D內容。

這些公告遵循Shutterstock作為領先的創(chuàng)新者之一所采取的多項戰(zhàn)略步驟,為創(chuàng)意產業(yè)帶來合乎道德和負責任的人工智能進步。Shutterstock最近還加入了內容真實性倡議(Content Authenticity Initiative,縮寫CAI),該公司將籍此支持CAI的目標,即通過整合內容憑證,實施認證媒體內容來源和歷史的技術標準,從而解決網(wǎng)上誤導性信息泛濫的問題。Shutterstock打算將CAI的基礎內容來源和真實性聯(lián)盟(Coalition for Content Provenance and Authenticity,簡稱C2PA)標準整合到其人工智能功能和各種創(chuàng)意工具中,包括其DALL·E驅動的人工智能圖像生成器和人工智能驅動的應用程序套件,以便在所有形式的內容中通過可驗證和不可篡改的信息進一步保護用戶。對于內容憑證,這將包括確保每個資產都通過有關其創(chuàng)建、作者和編輯歷史的安全元數(shù)據(jù)進行認證。

作為值得信賴的合作伙伴,Shutterstock還與NVIDIA、Meta、OpenAI、LG和科技行業(yè)的其他領導者合作,為3D、圖像和文本領域的創(chuàng)作者開發(fā)基礎的生成式人工智能工具和標準。

關于Shutterstock
Shutterstock, Inc.(紐約證券交易所股票代碼:SSTK)是轉型品牌、數(shù)字媒體和營銷公司的首要合作伙伴,致力于讓世界充滿信心地進行創(chuàng)作。在全球數(shù)百萬創(chuàng)作者、不斷增長的數(shù)據(jù)引擎和無畏的產品創(chuàng)新方法的推動下,Shutterstock是全球領先平臺,從最廣泛和多樣化的高質量3D模型、視頻、音樂、照片、矢量和插圖獲得授權。從全球最大的內容市場到突發(fā)新聞和最好的娛樂編輯訪問,再到一體化的內容編輯平臺和工作室制作服務,Shutterstock都采用最新的創(chuàng)新技術,提供最全面的資源,將故事講述變得栩栩如生。

了解更多信息,請訪問 www.shutterstock.com,并在LinkedIn 、 Instagram 、 Twitter 、 FacebookYoutube 上關注我們。 

消息來源:Shutterstock, Inc.
相關股票:
NYSE:SSTK
China-PRNewsire-300-300.png
全球TMT
微信公眾號“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營動態(tài)、財報信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
collection