91久久精品无码毛片国产高清

中證網
返回首頁

直接生成16秒高清視頻 我國自研視頻大模型在京發布

新華網

  新(xin)華社北(bei)京(jing)4月27日(ri)電(記者魏夢佳)只需(xu)一(yi)段文字指令(ling)就能(neng)生(sheng)成一(yi)段逼真視(shi)頻,今年初,文生(sheng)視(shi)頻大模型Sora在(zai)全球人工智(zhi)能(neng)業(ye)內外引發廣泛關(guan)注。27日(ri),2024中關(guan)村論壇年會上首(shou)次發布我(wo)國自研的具“長時長、高(gao)一(yi)致性、高(gao)動態(tai)性”特點的文生(sheng)視(shi)頻大模型Vidu。

  記者從會上獲悉(xi),這一視頻(pin)大(da)模(mo)型由(you)清(qing)(qing)華大(da)學聯合北京(jing)生數(shu)科技(ji)有(you)限公(gong)司(si)共同研(yan)發,可根(gen)據文本描述直接生成(cheng)長達16秒(miao)、分辨率高達1080P的(de)高清(qing)(qing)視頻(pin)內容,不僅能(neng)模(mo)擬真實物理世界(jie),還擁(yong)有(you)豐富想(xiang)象(xiang)力。

  清華大學人工智能(neng)研究院副院長(chang)、生(sheng)數科技(ji)首席科學家朱軍(jun)說(shuo),當前國內視(shi)頻(pin)大模型的生(sheng)成(cheng)視(shi)頻(pin)時長(chang)大多(duo)為4秒左(zuo)右(you),Vidu則可實(shi)現(xian)一次性生(sheng)成(cheng)16秒的視(shi)頻(pin)時長(chang)。同(tong)時,視(shi)頻(pin)畫面能(neng)保(bao)持(chi)連貫流(liu)暢(chang),隨著鏡頭移動,人物和場景在時間、空間中能(neng)保(bao)持(chi)高一致性。

  在動(dong)態(tai)性(xing)方面,Vidu能(neng)生(sheng)成(cheng)(cheng)復雜的動(dong)態(tai)鏡頭(tou)(tou),不再局限于簡(jian)單的推、拉、移等固定鏡頭(tou)(tou),而(er)是能(neng)在一段畫面里實現(xian)遠(yuan)景、近景、中景、特寫(xie)等不同鏡頭(tou)(tou)的切換,包括(kuo)能(neng)直接生(sheng)成(cheng)(cheng)長鏡頭(tou)(tou)、追焦、轉(zhuan)場等效(xiao)果。

  “Vidu能模擬真實物(wu)理(li)世界,生(sheng)成(cheng)細節復雜且符合(he)(he)物(wu)理(li)規律的(de)(de)場景,例如合(he)(he)理(li)的(de)(de)光影效(xiao)果(guo)、細膩(ni)的(de)(de)人物(wu)表情等,還(huan)能創造出具有深(shen)度(du)和復雜性的(de)(de)超現實主(zhu)義內容。”朱軍介紹,由于采用“一步到(dao)位(wei)”的(de)(de)生(sheng)成(cheng)方式,視頻片段從頭到(dao)尾連續生(sheng)成(cheng),沒有明顯的(de)(de)插幀(zhen)現象。

  此外,Vidu還可(ke)生(sheng)成如熊貓、龍等形象。

  據(ju)悉(xi),Vidu的(de)技(ji)術突破源于團隊(dui)(dui)在(zai)機(ji)器學習和多(duo)模(mo)態大模(mo)型方面的(de)長期積累,其(qi)核心技(ji)術架(jia)構(gou)(gou)由(you)團隊(dui)(dui)早在(zai)2022年就提出(chu)并(bing)持續開展自(zi)主研發。“作為一款通(tong)用(yong)視(shi)覺(jue)模(mo)型,我們相信,Vidu未來能(neng)支持生成更加多(duo)樣化、更長時長的(de)視(shi)頻(pin)內(nei)容(rong),探索不同的(de)生成任務,其(qi)靈活架(jia)構(gou)(gou)也(ye)將兼(jian)容(rong)更廣泛的(de)模(mo)態,進一步拓展多(duo)模(mo)態通(tong)用(yong)能(neng)力的(de)邊界(jie)。”朱軍說(shuo)。

中證網聲明:凡本網注明“來源:中國證券報·中證網”的所有作品,版權均屬于中國證券報、中證網。中國證券報·中證網與作品作者聯合聲明,任何組織未經中國證券報、中證網以及作者書面授權不得轉載、摘編或利用其它方式使用上述作品。