解密OpenAI超級視頻模型Sora技術報告 虛擬世界湧現


OpenAI首個AI視頻模型Sora橫空出世,再次創造歷史。這個堪稱“世界模型”的技術報告也在今天發佈,不過依然沒有公開具體訓練細節。昨天白天,“現實不存在”開始全網刷屏。“我們這麼快就步入下一個時代?Sora簡直太炸裂”。



“這就是電影制作的未來”!


Google的Gemini Pro 1.5還沒出幾個小時的風頭,天一亮,全世界的聚光燈就集中在OpenAI的Sora身上。

Sora一出,眾視頻模型臣服。


就在幾小時後,OpenAI Sora的技術報告也發佈!

其中,“裡程碑”也成為報告中的關鍵詞。


報告地址:https://openai.com/research/video-generation-models-as-world-simulators

技術報告主要介紹兩個方面:

(1)如何將不同類型的視覺數據轉化為統一的格式,以便於對生成模型進行大規模訓練的方法;

(2)對Sora的能力和局限性的定性評價。

不過遺憾的是,報告不包括模型和實現細節。嗯,OpenAI還是那個“OpenAI”。


就連馬斯克都被Sora生成效果震撼到,並表示“gg人類”。


打造虛擬世界模擬器

此前,OpenAI的研究者一直在探索的一個難題就是,究竟怎樣在視頻數據上,應用大規模訓練的生成模型?

為此,研究者同時對對持續時間、分辨率和寬高比各不相同的視頻和圖片進行訓練,而這一過程正是基於文本條件的擴散模型。

他們采用Transformer架構,這種架構能夠處理視頻和圖片中時空片段的潛代碼。

隨之誕生的最強大模型Sora,也就具備生成一分鐘高質量視頻的能力。

OpenAI研究者發現令人驚喜的一點:擴展視頻生成模型的規模,是構建模擬物理世界通用模擬器的非常有希望的方向。

也就是說,順著這個方向發展,或許LLM真的能夠成為世界模型!


Sora的獨到之處在於哪裡?

要知道,以前的許多研究,都是通過各種技術對視頻數據進行生成模型建模,比如循環網絡、生成對抗網絡、自回歸Transformer和擴散模型等方法。

它們往往隻關註於特定類型的視覺數據、較短的視頻或者固定尺寸的視頻。

而Sora與它們不同,它是一種通用的視覺數據模型,能夠生成各種持續時間、寬高比和分辨率的視頻和圖片,甚至長達一分鐘的高清視頻。

有網友表示,“Sora雖然有一些不完美之處(可以檢測出來),例如從物理效果可以看出它是人工合成的。但是,它將會革命性地改變許多行業。

想象一下可以生成動態的、個性化的廣告視頻進行精準定位,這將是一個萬億美元的產業”!


為驗證SORA的效果,業界大佬Gabor Cselle把它和Pika、RunwayML和Stable Video進行對比。

首先,他采用與OpenAI示例中相同的Prompt。

結果顯示,其他主流工具生成的視頻都大約隻有5秒鐘,而SORA可以在一段長達17秒視頻場景中,保持動作和畫面一致性。


隨後,他將SORA的起始畫面用作參照,努力通過調整命令提示和控制相機動作,嘗試使其他模型產出與SORA類似的效果。

相比之下,SORA在處理較長視頻場景方面的表現顯著更出色。


看到如此震撼的效果,也難怪業內人士都在感嘆,SORA在AI視頻制作領域確實具有革命性意義。

將視覺數據轉化為patch

LLM之所以會成功,就是因為它們在互聯網規模的數據上進行訓練,獲得廣泛能力。

它成功的一大關鍵,就是使用token,這樣,文本的多種形態——代碼、數學公式以及各種自然語言,就優雅地統一起來。

OpenAI的研究者,正是從中找到靈感。

該如何讓視覺數據的生成模型繼承token的這種優勢?

註意,不同於LLM使用的文本token,Sora使用的是視覺patch。

此前已有研究表明,patch對視覺數據建模非常有效。

OpenAI研究者驚喜地發現,patch這種高度可擴展的有效表征形式,正適用於訓練能處理多種類型視頻和圖片的生成模型。

從宏觀角度來看,研究者首先將視頻壓縮到一個低維潛空間中,隨後把這種表征分解為時空patch,這樣就實現從視頻到patch的轉換。


視頻壓縮網絡

研究者開發一個網絡,來減少視覺數據的維度。

這個網絡可以接受原始視頻作為輸入,並輸出一個在時間上和空間上都進行壓縮的潛表征。

Sora在這個壓縮後的潛空間中進行訓練,之後用於生成視頻。

另外,研究者還設計一個對應的解碼器模型,用於將生成的潛數據轉換回像素空間。

潛空間patch

對於一個壓縮後的輸入視頻,研究者提取看一系列空間patch,作為Transformer的token使用。

這個方案同樣適用於圖像,因為圖像可以被視為隻有一幀的視頻。

基於patch的表征方法,研究者使得Sora能夠處理不同分辨率、持續時間和縱橫比的視頻和圖像。

在推理時,可以通過在一個合適大小的網格中適當排列隨機初始化的patch,從而控制生成視頻的大小。

擴展Transformer

因此,視頻模型Sora是一個擴散模型;它能夠接受帶有噪聲的patch(和條件信息,如文本提示)作為輸入,隨後被訓練,來預測原始的“幹凈”patch。

重要的是,Sora是基於Transformer的擴散模型。在以往,Transformer在語言模型、計算機視覺和圖像生成等多個領域,都表現出卓越的擴展能力。


令人驚喜的是,在這項工作中,研究者發現作為視頻模型的擴散Transformer,也能有效地擴展。

下圖展示訓練過程中使用固定種子和輸入的視頻樣本比較。

隨著訓練計算資源的增加,樣本質量顯著提升。


視頻的多樣化表現

傳統上,圖像和視頻的生成技術往往會將視頻統一調整到一個標準尺寸,比如4秒鐘、分辨率256x256的視頻。

然而,OpenAI研究者發現,直接在視頻的原始尺寸上進行訓練,能帶來諸多好處。

靈活的視頻制作

Sora能夠制作各種尺寸的視頻,從寬屏的1920x1080到豎屏的1080x1920,應有盡有。

這也就意味著,Sora能夠為各種設備制作適配屏幕比例的內容!

它還可以先以較低分辨率快速制作出視頻原型,再用相同的模型制作出全分辨率的視頻。


更優的畫面表現

實驗發現,直接在視頻原始比例上訓練,能夠顯著提升視頻的畫面表現和構圖效果。

因此,研究者將Sora與另一個版本的模型進行比較,後者會將所有訓練視頻裁剪為正方形,這是生成模型訓練中的常見做法。

與之相比,Sora生成的視頻(右側)在畫面構成上則有明顯的改進。


深入的語言理解

訓練文本到視頻的生成系統,需要大量配有文本說明的視頻。

研究者采用DALL·E 3中的重新標註技術,應用在視頻上。

首先,研究者訓練一個能生成詳細描述的標註模型,然後用它為訓練集中的所有視頻,生成文本說明。

他們發現,使用詳細的視頻說明進行訓練,不僅能提高文本的準確性,還能提升視頻的整體質量。

類似於DALL·E 3,研究者也使用GPT,把用戶的簡短提示轉化為詳細的說明,然後這些說明會被輸入到視頻模型中。

這樣,Sora就能根據用戶的具體要求,生成高質量、準確無誤的視頻。

圖像和視頻的多樣化提示

雖然展示的案例,都是Sora將文本轉換為視頻的demo,但其實,Sora的能力不止於此。

它還可以接受圖像或視頻等其他形式的輸入。

這就讓Sora能夠完成一系列圖像和視頻編輯任務,比如制作無縫循環視頻、給靜態圖片添加動態、在時間線上擴展視頻的長度等等。

為DALL·E圖像賦予生命

Sora能夠接受一張圖像和文本提示,然後基於這些輸入生成視頻。

下面即是Sora基於DALL·E 2和DALL·E 3圖像生成的視頻。


一隻戴貝雷帽和黑高領衫的柴犬。


一傢五口怪物的插畫,采用簡潔明快的扁平設計風格。其中包括一隻毛茸茸的棕色怪物,一隻光滑的黑色怪物長著天線,還有一隻綠色的帶斑點怪物和一隻小巧的帶波點怪物,它們在一個歡快的場景中相互玩耍。


一張逼真的雲朵照片,上面寫著“SORA”。


在一個典雅古老的大廳內,一道巨浪滔天,正要破浪而下。兩位沖浪者把握時機,巧妙地滑行在浪尖上。

視頻時間線的靈活擴展

Sora不僅能生成視頻,還能將視頻沿時間線向前或向後擴展。

可以看到,demo中的視頻都是從同一個視頻片段開始,向時間線的過去延伸。盡管開頭各不相同,但它們最終都匯聚於同一個結尾。



而通過這種方法,我們就能將視頻向兩個方向延伸,創造出一個無縫的循環視頻。


圖像的生成能力

同樣,Sora也擁有生成圖像的能力。

為此,研究者將高斯噪聲patch排列在空間網格中,時間范圍為一幀。

該模型可生成不同大小的圖像,分辨率最高可達2048x2048像素。


左:一位女士在秋季的特寫照片,細節豐富,背景模糊。

右:一個生機勃勃的珊瑚礁,居住著五顏六色的魚類和海洋生物。


左:一幅數字繪畫,描繪一隻幼年老虎在蘋果樹下,采用精美的啞光畫風。

右:一個被雪覆蓋的山村,溫馨的小屋和壯麗的北極光相映成趣,畫面細膩逼真,采用50mm f/1.2鏡頭拍攝。

視頻風格和環境的變換

利用擴散模型,就能通過文本提示來編輯圖像和視頻。

在這裡,研究者將一種名為SDEdit的技術應用於Sora,使其能夠不需要任何先驗樣本,即可改變視頻的風格和環境。


視頻之間的無縫連接

另外,還可以利用Sora在兩個不同的視頻之間創建平滑的過渡效果,即使這兩個視頻的主題和場景完全不同。

在下面的demo中,中間的視頻就實現從左側到右側視頻的平滑過渡。

一個是城堡,一個是雪中小屋,非常自然地融進一個畫面中。



湧現的模擬能力

隨著大規模訓練的深入,可以發現視頻模型展現出許多令人興奮的新能力。

Sora利用這些能力,能夠在不需要專門針對3D空間、物體等設置特定規則的情況下,就模擬出人類、動物以及自然環境的某些特征。

這些能力的出現,完全得益於模型規模的擴大。

3D空間的真實感

Sora能創造出帶有動態視角變化的視頻,讓人物和場景元素在三維空間中的移動,看起來十分自然。

如下,一對情侶漫步在雪天中的東京,視頻的生成和真實的運鏡效果大差不差。


再比如,Sora擁有更加遼闊的視野,生成山水風景與人徒步爬山的視頻,有種無人機拍攝出的巨制趕腳。


視頻的一致性和物體的持續存在

在生成長視頻時,保持場景和物體隨時間的連續性一直是個挑戰。

Sora能夠較好地處理這一問題,即便在物體被遮擋或離開畫面時,也能保持其存在感。

下面例子中,窗臺前的花斑狗,即便中途有多個路人經過,它的樣子依舊保持一致。


例如,它可以在一個視頻中多次展示同一個角色,而且角色的外觀在整個視頻中保持一致。

賽博風格的機器人,從前到後旋轉一圈,都沒有跳幀。


與世界的互動

甚至,Sora能模擬出影響世界狀態的簡單行為。

比如,畫傢畫的櫻花樹,水彩紙上留下持久的筆觸。


又或是,人吃漢堡時留下的咬痕清晰可見,Sora的生成符合物理世界的規則。


數字世界的模擬

Sora不僅能模擬現實世界,還能夠模擬數字世界,比如視頻遊戲。

以“Minecraft”為例,Sora能夠在控制玩傢角色的同時,以高度逼真的方式渲染遊戲世界和動態變化。


而且,隻需通過簡單的提示,如提及“Minecraft”,Sora就能展現這些能力。


這些新能力顯示出,持續擴大視頻模型規模是一個極有希望的方向,讓模型向著精準模擬物理世界和數字世界、以及其中的生物和物體的高級模擬器發展。

局限性

當然,作為一個模擬器,Sora目前還存在不少的局限。

比如,它雖然能模擬一些基礎物理互動,比如玻璃的碎裂,但還不夠精確。


模擬吃食物的過程,也並不總是能準確反映物體狀態的改變。

在網站首頁上,OpenAI詳細列出模型的常見問題,比如在長視頻中出現的邏輯不連貫,或者物體會無緣無故地出現。


最後,OpenAI表示,Sora目前所展現出的能力,證明不但提升視頻模式的規模是一個令人振奮的方向。

沿這個方向走下去,或許有一天,世界模型就會應運而生。

網友:未來遊戲動嘴做

OpenAI給出眾多的官方演示,看得出Sora似乎可以為更逼真的遊戲生成鋪路——僅憑文字描述就能生成程序遊戲。

這既令人興奮,又令人恐懼。

FutureHouseSF的聯合創始人猜測,“或許Sora可以模擬我的世界。也許下一代遊戲機將是“Sora box”,遊戲將以2-3段文字的形式發佈”。


OpenAI技術人員Evan Morikawa稱,“在OpenAI發佈的Sora視頻中,如下的視頻讓我大開眼界。通過經典渲染器渲染這個場景是非常困難的。Sora模擬物理的方式和我們不同。它肯定仍然會出錯,但是我之前沒有預測到它能做得這麼逼真”。



有網友稱,“人們沒有把『每個人都會成為電影制作人』這句話當回事”。

我在15分鐘內制作這部20年代的預告片,使用OpenAI Sora的片段,David Attenborough在Eleven Labs上的配音,並在iMovie上從YouTube上采樣一些自然音樂。



還有人稱,“5年後,你將能夠生成完全沉浸式的世界,並實時體驗它們,“全息甲板”即將變成現實”!


有人甚至表示,自己完全被Sora的AI視頻生成的出色效果驚呆。

“它讓現有的視頻模型看起來像是愚蠢的玩具。每個人都將成為一名電影制作人”。


“新一代電影制作人即將與OpenAI的Sora一起湧現。再過10年,這將是一場有趣的比賽”!


“OpenAI的Sora暫不會取代好萊塢。它將為好萊塢以及個人電影制作者和內容創作者,帶來巨大的推動力。

想象一下,隻需3人團隊,就能在一周內,完成一部120分鐘的A級故事片的初稿創作和觀眾測試。這就是我們的目標”。


參考資料:

https://openai.com/research/video-generation-models-as-world-simulators?ref=upstract.co


相關推薦

2024-02-18

OpenAI首個AI視頻模型Sora橫空出世,再次創造歷史。這個堪稱“世界模型”的技術報告也在今天發佈,不過依然沒有公開具體訓練細節。昨天白天,“現實不存在”開始全網刷屏。“我們這麼快就步入下一個時代?Sora簡直太炸裂

2024-02-17

OpenAI首個AI視頻模型Sora橫空出世,再次創造歷史。這個堪稱“世界模型”的技術報告也在今天發佈,不過依然沒有公開具體訓練細節。昨天白天,“現實不存在”開始全網刷屏。“我們這麼快就步入下一個時代?Sora簡直太炸裂

2024-02-17

OpenAI首個AI視頻模型Sora橫空出世,再次創造歷史。這個堪稱“世界模型”的技術報告也在今天發佈,不過依然沒有公開具體訓練細節。昨天白天,“現實不存在”開始全網刷屏。“我們這麼快就步入下一個時代?Sora簡直太炸裂

2024-02-18

密時空Patches,竟是來自GoogleDeepMind和謝賽寧的論文成果。OpenAI,永遠快別人一步!像ChatGPT成功搶Claude的頭條一樣,這一次,Google核彈級大殺器Gemini1.5才推出沒幾個小時,全世界的目光就被OpenAI的Sora搶去。100萬token的上下文,僅

2024-02-16

2月16日凌晨,OpenAI再次扔出一枚深水炸彈,發佈首個文生視頻模型Sora。據介紹,Sora可以直接輸出長達60秒的視頻,並且包含高度細致的背景、復雜的多角度鏡頭,以及富有情感的多個角色。目前官網上已經更新48個視頻demo,在

2024-02-26

Sora,已經成為人工智能界的開年“王炸”。2月16日,OpenAI發佈Sora大模型,僅需通過文本即可自動生成視頻,這也是繼文本模型ChatGPT和圖片模型Dall-E之後,又一極具顛覆性的大模型產品。文本生成視頻並非始於Sora。據不完全統

2024-02-16

今日凌晨,OpenAI推出其首款文生視頻大模型Sora。該模型能根據提示詞生成長達1分鐘的視頻,或者擴展生成的視頻使其更長,同時視覺質量相當驚艷。相比以往的視頻模型,Sora的亮點非常明顯,不僅對文本理解更深刻,可以準確

2024-02-19

2月16日,OpenAI的AI視頻模型Sora炸裂出道,生成的視頻無論是清晰度、連貫性和時間上都令人驚艷,一時間,諸如“現實不存在!”的評論在全網刷屏。Sora是如何實現如此顛覆性的能力的呢?這就不得不提到其背後的兩項核心技

2024-02-18

AI(人工智能)新銳巨頭OpenAI近日推出文生視頻模型Sora,成為繼聊天機器人ChatGPT之後又一大新爆款。在Sora官網上,OpenAI寫道:“我們正在教AI理解和模擬運動中的物理世界,目的是訓練模型幫助人們解決需要現實世界互動的問

2024-02-20

作為龍年科技界的“第一把火”,OpenAI最新爆款文生視頻模型Sora的熱度正在以驚人的速度持續發酵。除震驚世界的AI視頻技術,其幕後主創團隊也來到聚光燈下。據OpenAI發佈的Sora技術報告,Sora作者團隊僅有13人,其中3名為華人

2024-02-19

Sora一夜之間爆火全球。但奇怪的是,OpenAI聯合創始人兼首席科學傢伊爾亞·蘇茨克維(IlyaSutskever)卻在保持沉默,沒有轉發任何一條關於Sora的視頻或推文。Sora目前沒有公開測試權限,僅僅向公司內部負責安全風險評估的紅隊成

2024-03-13

經驗,他們盯著鏡頭,坐姿有些拘束,YouTube 網友評價:OpenAI 的采訪給人的感覺,就像旁邊有個拿著槍的律師。采訪得到最為明確的信息是,Sora 短期內不會向公眾開放。另外,他們也談到 Sora 的原理、優缺點、發展路線、安全

2024-02-22

兆地發佈開源模型Gemma,直接狙擊Llama2,繼通過Gemini拳打OpenAI後,試圖用Gemma腳踢Meta。不同於Gemini的“全傢桶”路線,Gemma主打輕量級、高性能,有20億、70億兩種參數規模,能在筆記本電腦、臺式機、物聯網設備、移動設備和雲

2024-02-20

預言。李飛飛去年就用Transformer做出逼真的視頻。但隻有OpenAI大力出奇跡,跑在所有人前面。今天,全體AI社區都被威爾·史密斯發出的這段視頻震驚!你以為,上面是一年前的AI視頻,下面是如今的AI視頻?錯!這個所謂AI生成的