影片創作領域要面臨大變革了!OpenAI 今天突然宣布發表旗下第一個影片生成 AI 模型「Sora」,只要提供文字指令描述影片內容,Sora 就能幫你產生逼真、具有豐富想像力的高畫質影片,真的超級震撼!
Sora 並不是第一個能夠以文字產生影片 (text to video) 的 AI 模型,幾個月前手哥就介紹過美國 Runway AI 公司研發的 Gen-2 影片生成服務,這個服務當時在市場上已經處在領先地位,不過從今天發布的 Sora 模型的成熟度來看,只能感嘆企業 AI 訓練的資源差異之大,Sora 幾乎是壓倒性的勝利。
Sora 驚人的生成能力
透過以下幾個 OpenAI 提供由 Sora 產生的影片來看,在不經任何人工修正的狀況下,Sora 產生的影片品質大大超過我們對 AI 產生影片的想像!
Sora 能夠產生具有多個角色、特定類型的運動以及主體和背景的準確細節的複雜場景。該模型不僅了解使用者在提示中提出的要求,還了解這些東西在物理世界中的存在方式。
此外,Sora 對語言有深入的理解,能夠準確地解釋提示並產生引人注目的字符來表達充滿活力的情感。Sora 還可以在單一生成的影片中創建多個鏡頭,準確地保留角色和視覺風格。
目前仍有缺陷,但能說瑕不掩瑜
目前的模型仍然不完美。它可能難以準確模擬複雜場景的物理原理,並且可能無法理解因果關係的具體實例。例如,一個人可能咬了一口餅乾,但之後餅乾可能沒有咬痕。該模型還可能混淆提示的空間細節,例如混淆左右,並且可能難以精確描述隨著時間推移發生的事件,例如遵循特定的相機軌跡。但即便如此,目前產出的影片結果就已經夠驚人,讓人更期待未來發展!
Sora 每次可以產生最長 1 分鐘的影片,不過目前尚未開放給一般帳號使用,只開放給有限的政策制訂者、藝術家或教育工作者,幫助這套 AI 模型可以更無害的在真實世界運行,降低被有心人用於製作誤導性內容用途。