亚洲欧洲精品专线,国内少妇毛片视频,日本一区二区三区高清无卡,香蕉久久久久久AV综合网成人

OpenAI文生視頻大模型深度揭秘:真正遙遙領(lǐng)先 無可追趕

業(yè)界 來源:差評 2024-02-17 13:30:39

近日,OpenAI 發(fā)布了新的文生視頻大模型,名為 “ Sora ”。

Sora 模型可以生成最長 60 秒的高清視頻,生成的畫面可以很好的展現(xiàn)場景中的光影關(guān)系、各個物體間的物理遮擋、碰撞關(guān)系,并且鏡頭絲滑可變。

相信大家已經(jīng)在朋友圈看到了非常多的文章在展示 OpenAI 的官方演示視頻,下面,我們想重點探討為何 Sora 模型的效果看起來遠超市面上我們見過的其他文生視頻模型,他們都做了什么?

以防您沒看到,我們放幾個示例:

示例視頻的生成提示詞為:

一位時尚的女人走在東京的街道上,街道上到處都是溫暖的發(fā)光霓虹燈和動畫城市標志。她身穿黑色皮夾克,紅色長裙,黑色靴子,背著一個黑色錢包。她戴著墨鏡,涂著紅色口紅。她自信而隨意地走路。街道潮濕而反光,營造出五顏六色的燈光的鏡面效果。許多行人四處走動。

AI想象中的龍年春節(jié),紅旗招展人山人海,有緊跟舞龍隊伍抬頭好奇觀望的兒童,還有不少人掏出手機邊跟邊拍,海量人物角色各有各的行為。

一名年約三十的宇航員戴著紅色針織摩托頭盔展開冒險之旅,電影預(yù)告片呈現(xiàn)其穿梭于藍天白云與鹽湖沙漠之間的精彩瞬間,獨特的電影風格、采用35毫米膠片拍攝,色彩鮮艷。

豎屏超近景視角下,這只蜥蜴細節(jié)拉滿。

首先,在文生視頻領(lǐng)域,比較成熟的模型思路有循環(huán)網(wǎng)絡(luò)( RNN )、生成對抗網(wǎng)絡(luò)( GAN )和擴散模型( Diffusion models ),而本次OpenAI 推出的 Sora 則是一種擴散模型。

雖然 GAN 模型之前一直很火,但圖像和視頻生成相關(guān)的領(lǐng)域,現(xiàn)在處于被擴散模型統(tǒng)治的階段。

因為擴散模型是有非常卓越的優(yōu)越性的,相較于 GAN,擴散模型的生成多樣性和訓練穩(wěn)定性都要更好。

最重要的是,擴散模型在圖片和視頻生成上有更高的天花板,因為 GAN 模型從原理上來看本質(zhì)上是機器對人的模仿,而擴散模型則更像是機器學會了 “ 成為一個人 ”。

這么說或許有些抽象,我們換一個不嚴謹?shù)ㄋ缀美斫獾睦樱?/p>

GAN 模型像是一個勤奮的畫家,但不太受控制,因為畫家( 生成器 )一邊不停對著先作( 訓練源 )畫畫,然后另一邊老師( 判別器 )也不停打分。

就在大戰(zhàn)無數(shù)個回合之后,畫家和老師瘋狂升級進步,最后直到畫家畫出逼真的畫。

但整個過程不太好控制,經(jīng)常練著練著就走火入魔,輸出一些誰也看不懂的玩意兒。

同時,他的提升過程本質(zhì)上是對先作的不斷模仿,所以他還缺乏創(chuàng)造力,導(dǎo)致天花板也潛在會比較低。

擴散模型,則是一個勤奮且聰明的畫家,他并不是機械的仿作,而是在學習大量先作的時候,他學會了圖像內(nèi)涵與圖像之間的關(guān)系,他大概知道了圖像上的 “ 美 ” 應(yīng)該是什么樣,圖像的某種 “ 風格 ” 應(yīng)該是什么樣,他更像是在思考,他是比 GAN 更有前途的畫家。

也就是說,OpenAI 選擇擴散模型這個范式來創(chuàng)造文生視頻模型,在當下屬于開了個好頭,選擇了一個有潛力的畫家來培養(yǎng)。

那么,另一個疑問就出現(xiàn)了,由于大家都知道擴散模型的優(yōu)越性,除了 OpenAI 以外,同樣在做擴散模型的還有很多友商,為什么 OpenAI 的看起來更驚艷?

因為 OpenAI 有這樣一個思維:我曾經(jīng)在大語言模型上獲得了非常好的效果、獲得了如此巨大的成功,那我有沒有可能參考這個經(jīng)驗獲得一次新的成功呢?

答案是可以。

OpenAI 認為,之前在大語言模型上的成功,得益于 Token( 可以翻譯成令牌、標記、詞元都可,翻譯為詞元會更好理解一些 ),Token 可以優(yōu)雅的把代碼、數(shù)學以及各種不同的自然語言進行統(tǒng)一,進而方便規(guī)模巨大的訓練。

于是,他們創(chuàng)造了對應(yīng) Token 的 “ Patch ” 概念( 塊,如果 Token 翻譯為詞元理解的話,Patch 或許可以被我們翻譯為 “ 圖塊 ” )用于訓練 Sora 這個視頻模型。

實際上,在大語言模型中,Token 的應(yīng)用之所以會如此成功,還得益于 Transformer 架構(gòu),他與 Token 是搭配著來的,所以 Sora 作為一個視頻生成擴散模型,區(qū)別于主流視頻生成擴散模型采用了 Transformer 架構(gòu)。( 主流視頻生成擴散模型較多采用 U-Net 架構(gòu) )

也就是說,OpenAI 贏在了經(jīng)驗與技術(shù)路線的選擇上。

但是,Transformer 架構(gòu)這個 “ 成功密碼 ”人盡皆知,在文字、圖像生成上已經(jīng)成為了主流,為什么別人沒想著在視頻生成上用,OpenAI 就用了呢?

這源自另外一個問題:Transformer 架構(gòu)中全注意力機制的內(nèi)存需求會隨著輸入序列長度而二次方增長,所以處理視頻這樣的高維信號時,計算成本會非常非常高。

通俗點說,就是雖然用了 Transformer 效果會好,但所需的計算資源也是非??植赖?,這么做不是很經(jīng)濟。

當然,OpenAI 雖然拿各種融資拿到手軟,但也依然沒那么財大氣粗,所以他們并沒有直接猛砸資源,而是想了另外一種方式來解決計算成本高昂的問題。

這里我們要先引入 “ latent ” ( 潛 )這一概念,它是一種 “ 降維 ” 或者說是 “ 壓縮 ”,意在用更少的信息去表達信息的本質(zhì)。我們列舉一個不恰當?shù)美斫獾睦?,這就好像我們用一個三視圖就能保存記錄一個簡單的立體物體的結(jié)構(gòu),而非一定要保存這個立體本身。

OpenAI 為此開發(fā)了一個視頻壓縮網(wǎng)絡(luò),把視頻先降維到潛空間,然后再去拿這些壓縮過的視頻數(shù)據(jù)去生成 Patch ,這樣就能使輸入的信息變少,有效減小 Transformer 架構(gòu)帶來的計算量壓力。

如此一來,大部分問題就都解決了,OpenAI 成功地把文生視頻模型套進了其在過去取得巨大成功的大語言模型的范式里,所以效果想不好都難。

除此之外,OpenAI 在訓練上的路線選擇也稍有不同。

他們選擇了 “ 原始尺寸、時長 ” 訓練,而非業(yè)內(nèi)常用的 “ 把視頻截取成預(yù)設(shè)標準尺寸、時長 ” 后再訓練。

這樣的訓練給 Sora 帶來了諸多好處:

①生成的視頻能更好地自定義時長;

②生成的視頻能夠更好地自定義視頻尺寸;

③視頻會有更好的取景和構(gòu)圖;

前兩點很好理解,第三點 OpenAI 給出了范例,他們做了一個截取尺寸視頻訓練和原始尺寸視頻訓練的模型對比:

或許我們可以說,OpenAI 自己先成為了一個巨人,然后再站在自己這個巨人的肩膀上,成為了一個新的巨人。

而相對應(yīng)的是,無論國內(nèi)還是國外的其他競爭對手,或許會因為文生文、文生圖上的技術(shù)差,在未來被甩的更遠。

所謂 “ 彎道超車 ”、“ 差距只有 X 個月 ”,或許是不存在的,只是自我安慰。

責任編輯:上方文Q

延伸閱讀

關(guān)注公眾號:拾黑(shiheibook)了解更多

友情鏈接:

關(guān)注數(shù)據(jù)與安全,洞悉企業(yè)級服務(wù)市場:https://www.ijiandao.com/
安全、綠色軟件下載就上極速下載站:https://www.yaorank.com/

公眾號 關(guān)注網(wǎng)絡(luò)尖刀微信公眾號
隨時掌握互聯(lián)網(wǎng)精彩
贊助鏈接