劃重點:
- 🤖 新發佈的 OpenAI 視頻生成工具 Sora 可以根據用戶提示制作長達一分鐘的視頻。
- 🛡️ 專傢擔心,這種視頻生成器可能加劇互聯網不實信息和政府宣傳,使真假內容之間的界限更加模糊。
- 🔒 OpenAI 已經采取措施防止濫用 Sora,但專傢仍擔心其可能產生深度偽造視頻。
2月19日 消息:OpenAI 最新推出的視頻生成工具 Sora 展示一個陽光普照的達爾馬提亞狗躡手躡腳地走過窗臺、一場中國新年遊行席卷城市街道、一名考古學傢在沙漠沙地上挖掘出一把椅子。這些視頻是在線發佈的,但實際上並沒有發生。它們構成 OpenAI 最新推出的視頻生成工具 Sora 公開提供的第一個作品。
Sora 可以根據用戶提示制作長達一分鐘的視頻,就像 ChatGPT 會以文字回復、Dall-E 會提供圖像一樣。目前,視頻生成器正在一組產品測試人員中使用,但尚未向公眾開放,OpenAI 在周四的一份聲明中表示。
專傢表示,這些產品有望改進和簡化視頻敘事,但也可能加劇互聯網不實信息,增強政府宣傳,使網絡上已經模糊的真假內容之間的界限更加模糊。
與此同時,人工智能生成的視頻可能會強化從生成這些內容的訓練材料中獲取的仇恨或偏見觀點,他們補充說。專傢對 OpenAI 采取的措施以防止濫用 Sora 表示關註。
不過,OpenAI 指向一篇網頁,詳細介紹公司為防止 Sora 濫用所采取的措施。根據公司網站的說法,OpenAI 計劃采取一些重要的安全措施,以避免 Sora 的濫用。
專傢HIA表示,難以評估尚未向普通公眾發佈的演示產品。然而,他們對視頻生成器的濫用機會和實施完全有效保護措施的挑戰表示擔憂。
AI 生成的內容的風險在近幾周內引起廣泛關註。今年1月底,一組虛假的、涉及泰勒・斯威夫特 (Taylor Swift) 的 AI 生成色情圖片在社交媒體上走紅,獲得數百萬次瀏覽。上個月,一條冒充美國總統喬・拜登 (Joe Biden) 聲音的虛假電話呼叫勸阻人們不要在新罕佈什爾州初選中投票。
專傢贊揚 OpenAI 為阻止 Sora 的濫用所采取的措施。他們警告說,這種產品可能具有創作深度偽造視頻的能力,並且很難防止這樣的視頻出現。隨著 OpenAI 為 Sora 實施的安全措施,如檢測分類器和數字水印,專傢對其表示肯定,但也提醒視頻可能會被復制或更改以移除標簽。人們將設法規避設置的防護欄,這將成為一場軍備競賽。