奧特曼回應一切:GPT-5、董事會宮鬥、Ilya當時看到什麼


今年2月隨著Sora的橫空出世,大傢再一次把目光聚集到OpenAI。不僅如此,去年亮相的ChatGPT、GPT-4,更是把AI直接帶入到生成式人工智能領域。作為一傢引領科技潮流的機構,大傢自然對其方方面面都產生好奇。

在最近的一次采訪中,美國知名播客 Lex Friedman 再次邀請 OpenAI 首席執行官 Sam Altman 進行專訪。專訪時間長達兩個小時,對話中 Sam Altman 透漏幾個大傢比較關心的問題。


Sam Altman 坦言,OpenAI 的“董事會風波”讓他很痛苦,甚至在一段時間內他都處於神遊狀態(fugue state),整個事件持續好幾天,過程跌宕起伏,讓 Sam 倍感疲憊,Altman 表示這可能不是 OpenAI 最後一個高壓力時刻。整個事件中,Sam 高度贊揚 Mira Murati 出色的表現。他認為 OpenAI 面臨的挑戰之一是必須擁有一個善於在壓力下運作的董事會和團隊。此外董事會增補一些經驗更豐富的成員。

關於 Ilya,Sam Altman 表示他非常尊重並欣賞 Ilya,希望未來的工作生涯都能和他合作,並回應道:“Ilya 並沒有看到通用人工智能,但 Ilya 是人類的功臣。關於安全問題 Ilya 想很多,也擔心很多。”

Sam Altman 還對馬斯克批評 OpenAI 的事情給出自己的看法:“對於許多根本性的新事物來說,你開始在黑暗中摸索,並做出一些假設,結果會發現大多數假設都是錯誤的。我們進行一些修補,最後的結果至少可以說是讓人瞠目結舌。”他認為馬斯克也會對此有很多共鳴。

談到 Sora 時,Altman 表示非常樂觀,但是將 Sora 理解為一個底層三維世界模型,是有點牽強的,此外,他還提到 Sora 的局限性。但當記者問到細節和數據時,Altman 沒有透漏更多有用的信息。

在 Altman 眼中 GPT-4 還是很糟糕的,他預計 5 和 4 之間的差值將與 4 和 3 之間的差值相同。

訪談中,當記者問道 Q* 是個什麼項目時,Sam Altman 表示自己還沒準備好回答這個問題,但他透漏 AI 系統下一步發展計劃是進行更好的推理。OpenAI 現在采用迭代部署的方式進行研發,而不是秘密進行直到完成 GPT-5 才公佈,他們的目標不是給世界帶來震驚性的更新,恰恰相反,OpenAI 希望自己研發的成果不會給人一種跳躍式的發展趨勢,如果那樣的話,OpenAI 會更加快速迭代地發佈他們的產品。Sam Altman 表示 GPT-5 之類的研究或許采用一種不同的發佈方式。

當記者問道GPT-5 的發佈日期時,Altman 回答自己並不知道但他表示 OpenAI 在接下來的幾個月中會發佈許多不同的東西,大傢可以理解為 GPT-5,或者不是,又或者是比 GPT-5 稍差或好一點的模型。Altman 還分享一些經驗總結,即自己會對科技行業中所有的或大部分前沿動態有一個好的全景圖,這樣才能能看到這些領域的連接或新的可能性。

采訪過程中,當記者問道籌集 7 萬億美元建造芯片廠的事時,Altman 否認,表示自己沒說過這種話。之後他談到算力將成為世界上最珍貴的商品之一,而實現算力需要解決能源問題,Altman 認為核能是一個不錯的選擇。

Altman 對於打造比Google更好的搜索引擎不感興趣,他覺得這很無聊。OpenAI 要做的不是簡單的復制Google搜索,而是有更好的方法幫助人們查找信息、采取行動並綜合信息。很多人都想做一個比Google更好的搜索引擎,這是一個很難解決的技術問題,也是一個很難解決的品牌問題,更是一個很難解決的生態系統問題。Altman 認為世界不需要另一個Google,並坦言自己並不喜歡用廣告來盈利,他認為用戶使用付費 ChatGPT 不受廣告商的影響就可以。

對於 GPT-5 ,Altman 透漏會變得更聰明,在各個方面都將表現更好。Altman 預測 5 到 10 年後人類完全可以用自然語言編程。OpenAI 也會重返機器人領域。

最後,Altman 談到大傢比較關心的問題 AGI,他表示 AGI 不是終點,而是更接近於一個裡程碑式的開端。預計到在下個十年的末期,甚至可能更早,我們將擁有相當強大的 AI 系統。

關於這次采訪的內容,我們進行編譯整理。

OpenAI 董事會風波

記者:帶我回顧一下從 2023 年 11 月 16 日星期四開始的那場 OpenAI 董事會風波吧,也許您也可以從 11 月 17 日星期五開始講述。

Sam Altman:這絕對是我一生中最痛苦的職業經歷,混亂、可恥、令人不安,還有很多其他負面的事情。不過期間也有好事發生,但是我當時太過焦慮,腎上腺素激增,以至於我無法停下來細品這些經歷。

但當我看見Twitter上人們談論我做過的所有重要的事情,以及我愛的和關心的人都給我難以置信的支持。那種感覺太好。

整個周末,除一個很大的例外,我感受到很多愛和很少的恨,盡管我不知道正在發生什麼以及將要發生什麼,這種未知的感覺也的確很糟糕。有時我確實認為這將是人工智能安全史上發生的最糟糕的事情之一。

我也很高興這件事發生得相對較早。我認為從 OpenAI 成立到我們創建 AGI,一定會有某個時刻,會發生一些瘋狂和爆炸性的事情。即使現在似乎已經發生,未來可能還會有更多瘋狂和爆炸性的事情發生。我認為,這場風波幫助我們建立一定的韌性,並為未來的更多挑戰做好準備。

記者:但你預感到的事情是權力鬥爭嗎?

Sam Altman:通向 AGI 的道路應該是一場巨大的權力鬥爭......

記者:所以你必須經歷這個過程,就像你說的,盡可能頻繁地迭代,弄清楚如何建立董事會結構、如何建立組織、如何擁有你所需要的人員、如何溝通,所有這些問題都需要努力解決,以便盡可能緩和權力鬥爭。

Sam Altman:是的。

記者:緩和。

Sam Altman:但此時此刻回想起來,這件事情真的讓人很不愉快,很困難、很痛苦。當我們又回到工作崗位,事情又如此的忙碌和緊張。之後有一段時間,一個月或者 45 天後,我都處於一種神遊狀態,我實在是太沒出息,心情非常低落。

記者:隻是在個人心理層面上嗎?

Sam Altman:是的。真的很痛苦,而且在這期間很難繼續運行 OpenAI。我隻想“爬進山洞裡”恢復一下。

記者:嗯,你可能需要反思一下董事會結構、權力動態、公司的運營方式、研究和產品開發與資金之間的緊張關系,以便 OpenAI 在構建 AGI 方面具有很高的潛力,未來會以一種更有組織性、不那麼引人註目的方式來實現 AGI。因此,這種恢復有很多價值,既包括你作為領導者的個人心理方面,也包括董事會結構等所有混亂的東西。

Sam Altman:我確實學到很多關於結構和激勵措施的東西,並且意識到在董事會之外我們還需要什麼。我認為現在發生的這件事在某種意義上是有價值的。我認為這可能不是 OpenAI 最後一個高壓力時刻,但這是一個壓力相當高的時刻,公司差一點就被毀掉。我們思考很多我們必須為 AGI 做好的其他事情,但思考如何建立一個有彈性的組織以及如何建立一個能夠承受世界上巨大壓力的結構,隨著我們越來越接近 AGI,我認為這越來越重要。

記者:你覺得董事會的審議過程深入、嚴謹嗎?

Sam Altman:我認為董事會成員總體上都是善良的人,而且我相信,在感到時間壓力或其他壓力的情況下,人們會理解並做出次優的決定。我認為 OpenAI 面臨的挑戰之一是我們必須擁有一個善於在壓力下運作的董事會和團隊。

記者:你認為董事會權力太大嗎?

Sam Altman:我認為董事會應該擁有很大的權力,但我們確實看到的一件事是,在大多數公司結構中,董事會通常對股東負責。有時人們會擁有超級投票權股份等等。

在這種情況下,我認為除非制定其他規則,否則非營利組織的董事會擁有相當大的權力。除他們自己之外,他們並不真正對任何人負責。我們希望的是 OpenAI 董事會能夠向整個世界做出回應。

記者:因此宣佈一個新的董事會。

Sam Altman:是的。一些新董事會成員擁有更多的董事會成員經驗,我想這會有幫助。

我們希望以名單的形式雇傭董事會成員,致力於讓一群人帶來非營利的專業知識、運營公司的專業知識、法律和治理專業知識,這就是我們試圖優化的目標。

記者:那麼技術知識對於董事會成員個人來說重要嗎?

Sam Altman:並非每個董事會成員都需要掌握技術知識,但肯定有一些成員需要,這也是董事會需要做的一部分。

記者:有趣的是,人們可能不解 OpenAI 運營業務的所有細節,當然我也不解。當人們想到董事會時,他們首先會想到你。他們會考慮,如果你認為達到通用人工智能,或者構建部署一些非常有影響力的產品,那麼你與董事會的對話會是什麼樣的?在這種情況下,什麼樣的陣容才是合適的?

Sam Altman:這就是我認為肯定需要一些技術專傢的原因。然後需要一些人去思考並解決一個問題:“我們如何才能以最幫助全世界人的方式部署它”,當然還需要持有不同觀點的人。

我認為你或我可能犯的一個錯誤是認為隻有技術理解才重要,但還有更多關於如何影響社會和人們生活的問題。

記者:你提到那個周末的一些低谷。對你來說,心理上的低谷是什麼?

Sam Altman:那的確是一段非常糟糕的時期,但是也有很多好事。我的手機不停地收到來自我每天一起工作的人的好消息,這些人我已經十年沒有和他們說過話。總的來說,這是一個非常痛苦的周末。這就像一場令人驚訝的公開戰鬥,我非常疲憊。董事會於周五下午進行此項工作。我真的無法得到太多答案。我在想,董事會可以這樣做,但我如何能因禍得福。

我當時想,好吧,我目前在 OpenAI 的工作是,或者說曾經是,經營一傢規模相當大的公司。我一直最喜歡的事情就是與研究人員一起工作。我當時想,是的,我可以去做一個非常專註的 AGI 研究工作。我對此感到很興奮。我當時甚至沒有想到這一切都會被撤銷。

記者:所以你當時已經接受這件事情。

Sam Altman:是的,非常迅速。我經歷一段困惑和憤怒的時期,但很快就想清楚。

記者:當天晚上你睡得著嗎?

Sam Altman:睡得不好。奇怪的是,在那四天半的時間裡,我睡得不好,吃得不多,但仍然精力充沛。

記者:所以你接受 OpenAI 這個“嬰兒”的死亡。

Sam Altman:我對新事物感到興奮。

記者:這是一個非常好的應對機制。

Sam Altman:然後到周六早上,兩名董事會成員打電話說:“我們並不是有意破壞穩定。我們不想在這裡存儲太多價值。我們可以談談你回來的事情嗎?”我最初不想這樣做,但我想想,我真的很在乎這裡的人、合作夥伴、股東。我喜歡這傢公司。然後我想:“好吧,但這就是我需要的東西。”那個周末,我一直在思考並被告知,不僅僅是我,整個團隊都在努力保持 OpenAI 的穩定。

周日晚上,每隔幾小時,我就期待我們會完成任務,找到一種讓我回去的方法,讓事情回到原來的樣子。董事會隨後任命一位新的臨時首席執行官,那是整個事情的最低谷的時刻。

記者:你對 Mira Murati 給予高度評價,正如你在推文中所說,她在重要的時刻提供幫助。或許我們可以稍微偏離一下主題。你欣賞 Mira 什麼?

Sam Altman:嗯,在那個周末,在一片混亂中,她做得很好,人們經常在危機時刻看到領導者的表現,無論好壞。但我真正看重領導者的一點是,在無聊的周二上午 9:46 以及日常的平凡苦差事中表現如何,某人在日常會議中的表現、他們所做決策的質量。這就是我所說的靜默時刻。

記者:這意味著大部分工作都是在日復一日的會議中完成的。隻要專註並做出重大決定即可。

Ilya Sutskever

記者:下一個問題,關於 Ilya,他是否被秘密核組織挾持成人質?

Sam Altman:沒有。

記者:普通的秘密組織呢?

Sam Altman:沒有。

記者:非秘密的核組織呢?

Sam Altman:都沒有。

記者:這在某種程度上正在成為一個梗。你認識 Ilya 很長時間。顯然,他是董事會風波的一部分。你現在和他是什麼關系?

Sam Altman:我愛 Ilya。我非常尊重 Ilya。我不知道我能否透露他現在的計劃,這個問題應該由他來回答。但我真的希望未來的工作生涯都能和他合作。他比我年輕一點。也許他的工作時間會更長一點。

記者:有人說 Ilya 看到一些東西,可能是 AGI,這讓他內心不安。所以,Ilya 看到什麼?

Sam Altman:Ilya 看到的不是 AGI,沒有人見到過 AGI,我們還沒有建造過 AGI。我確實認為我欣賞 Ilya 的眾多原因之一是他非常認真地對待 AGI 和安全問題,從廣義上講,這包括 AGI 將對社會產生的影響。隨著 OpenAI 不斷取得重大進展,Ilya 是陪伴我時間最久的人之一。在過去的幾年裡,他總談起這意味著什麼、我們需要做什麼來確保我們做的是對的,確保我們成功完成使命。所以 Ilya 並沒有看到通用人工智能,但 Ilya 是人類的功臣,他想很多,也擔心很多。

記者:我過去和他聊過很多次。我認為當他談論技術時,他總是在做這種長期的思考。所以他並沒有考慮一年後會發生什麼,他考慮的是十年後的情況,是從首要原則出發去思考。

總結一下整個故事,你對董事會結構感覺良好嗎?

Sam Altman:是的。我對新董事會感覺很好。就 OpenAI 的結構而言,董事會的任務之一就是研究我們可以在哪些方面變得更加強大。我們希望首先讓新的董事會成員就位,但我們顯然在整個過程中學到有關結構的教訓。我想,我沒有什麼非常深奧的東西要說。這是一次非常瘋狂、痛苦的經歷。這對我來說是一個預演,隨著風險越來越大,我們需要擁有健全的治理結構、流程和人員安排。我很高興它發生,但這段經歷令人震驚、痛苦。

記者:這是否讓你在信任他人方面變得更加猶豫?

Sam Altman:是的。

記者:隻是在個人層面上嗎?

Sam Altman:是的。我認為我是一個非常信任別人的人。我一直有一個人生哲學,那就是不要擔心所有的偏執,不用擔心邊緣情況。這場風波讓我措手不及,它絕對改變我對人們默認信任和針對糟糕情況規劃的看法。

記者:我實際上不確定對於正在開發 AGI 的人來說,信任或不信任哪種模式最適合操作。但你如何讓周圍的人都在創造很酷的東西,同時也做出明智的決定?

Sam Altman:我對每天與我一起工作的人懷有極大的感激、信任和尊重,我認為被這樣的人包圍真的很重要。

馬斯克的訴訟

記者:我們共同的朋友埃隆・馬斯克起訴 OpenAI。對你來說,他批評的本質是什麼?多大程度上有道理?多大程度上是錯的?

Sam Altman:我不知道這到底是怎麼回事。我們一開始隻是想做一個研究實驗室,根本不知道這項技術會如何發展。因為這是七八年前的事,我們很難回想起來當時的情況,但這是在語言模型大行其道之前。那時候我們還不知道什麼是應用程序接口(API),也不知道銷售聊天機器人的訪問權限。那時候我們還完全不知道要實現產品化。所以我們就想,“我們隻是想做做研究,並不知道要做什麼”。我認為,對於許多根本性的新事物來說,你開始在黑暗中摸索,並做出一些假設,結果會發現大多數假設都是錯誤的。

後來我們發現,我們需要做不同的事情,還需要更多的資金。於是我們說:“好吧,我們的結構不適合這樣做。我們該如何修補結構?”然後我們進行一些修補,最後的結果至少可以說是讓人瞠目結舌。但我認為,我們是一步步走到現在的,一路上的每一個決定都是合理的。但這並不意味著,如果我們現在能回到 Oracle 時代,我的做法就會完全不同,但當時你並沒有 Oracle。但無論如何,埃隆真正的動機是什麼,我不知道。

記者:根據你的記憶,OpenAI 在博文中給出的回應是什麼?你能總結一下嗎?

Sam Altman:哦,我們隻是說埃隆說這一系列事情。這是我們的描述,或者說這不是我們的描述。這是對事情經過的描述。我們盡量避免情緒化,隻說“這是歷史”。

記者:我確實認為埃隆對你剛才提到的一點有一定程度的誤解,那就是你們當時的不確定性。你們是一小群瘋狂談論 AGI 的研究人員,而所有人都在嘲笑這種想法。

Sam Altman:不久前,埃隆還在瘋狂地談論發射火箭,而當時人們都在嘲笑這種想法,所以我認為他會對此有更多共鳴。

記者:我確實認為這裡面有個人因素,OpenAI 和這裡很多不起的人選擇與埃隆分道揚鑣,這其中有個人因素。

Sam Altman:埃隆選擇分道揚鑣。

記者:你能具體描述一下嗎?選擇分道揚鑣?

Sam Altman:他認為 OpenAI 將會失敗。他想要完全掌控局面。我們希望繼續朝著現在已經成為 OpenAI 的方向前進。他還希望特斯拉能夠建立 AGI。在不同時期,他都希望將 OpenAI 打造成一傢營利性公司,由他來控制,或者讓它與特斯拉合並。我們不想這麼做,所以他決定離開,這也沒什麼。

記者:所以你的意思是,這也是博文中提到的一點,他希望 OpenAI 能以同樣的方式被特斯拉收購,或者是類似的方式,或者是比與微軟合作更戲劇化的方式。

Sam Altman:在我的記憶中,這個提議是被特斯拉收購,讓特斯拉完全控制它。我很確定就是這樣。

記者:那麼 OpenAI 中的 Open 一詞對當時的埃隆來說意味著什麼?Ilya 曾在郵件交流中談到過這一點,還有其他類似的東西。當時它對你意味著什麼?現在對你又意味著什麼?

Sam Altman:說到回到 Oracle,我會選一個不同的名字。我認為 OpenAI 正在做的最重要的一件事,就是將強大的技術作為公益事業免費提供給人們。我們不在自己的網站上做廣告。

作為一項公益事業。我們不在免費版本上做廣告。我們不以其他方式盈利。我們隻是說,這是我們使命的一部分。我們希望將越來越強大的工具免費提供給人們使用。我認為這種開放性對我們的使命非常重要。我認為,如果你給人們提供強大的工具,並教他們使用,或者甚至不教他們,他們就會自己想辦法,讓他們用這些工具為彼此創造一個不可思議的未來,這就是一件大事。因此,如果我們能繼續向世界提供免費或低成本的強大人工智能工具,我認為這對我們完成使命意義重大。至於開源與否,我認為我們應該開源一些東西,而不是其他東西。這確實是一條很難有細微差別的戰線,但我認為細微差別才是正確的答案。

記者:所以他說,“把你的名字改成 CloseAI,我就撤訴”。這是否會成為關於名字的備忘錄的戰場?

Sam Altman:我認為這說明埃隆對這起訴訟的重視程度,我認為這是一件令人震驚的事情。

記者:如果我說錯,也許可以糾正我,但我不認為這起訴訟在法律上是嚴肅的。它更多地是想說明 AGI 的未來,以及這傢目前處於領先地位的公司。

Sam Altman:我是說 Grok 一直沒有開源任何東西,直到人們指出這有點虛偽,然後他宣佈 Grok 開源。我不認為開源與否是他的真正目的。

記者:好吧,我們來談談開源和不開源。我認為批評競爭對手是件好事。說點廢話,那很好。但友好的競爭與“我個人最討厭打官司”的競爭是不同的。

Sam Altman:聽著,我認為這整件事都不符合一個建造者的身份。我尊敬埃隆,他是我們這個時代最偉大的建築師之一。我知道他知道仇敵攻擊他的滋味,他這樣折騰讓我格外難過。

記者:是的,他是有史以來最偉大的建造者之一,有可能是有史以來最偉大的建造者。

Sam Altman:這讓我很難過。我想這也讓很多人難過。有很多人都仰慕他很久。我在某次采訪中說,我很懷念以前的埃隆,結果收到很多留言,“這正是我的感受”。

記者:我覺得他應該贏。他應該讓 X Grok 打敗 GPT,然後讓 GPT 打敗 Grok,這就是競爭,對每個人來說都很美好。但關於開放源代碼的問題,你認為是否有很多公司在玩這個創意?這很有趣。我認為 Meta 公司在這方面走在前面,至少在真正開源模式的棋局中邁出第一步。當然,這並不是最先進的模型,但開放 Llama 的源代碼後,Google正在考慮開放一個更小的版本。開源的利弊是什麼?你是否也有過這種想法?

Sam Altman:是的,我認為開源模型肯定會有一席之地,尤其是人們可以在本地運行的小型模型,我認為需求巨大。我認為會有一些開源模型,也會有一些閉源模型。這與其他生態系統並無不同。

記者:我聽所有的播客都在談論這起訴訟和所有這些東西。他們更關心的是,從非營利到盈利的先例。這給其他初創企業開什麼先例?

Sam Altman:我非常不鼓勵任何初創公司考慮從非營利機構起步,然後再加入營利機構。我不鼓勵他們這麼做。我不認為我們會在這裡開創先例。

如果我們知道會發生什麼,我們也會這麼做的。

記者:你希望埃隆怎麼做?這種緊張,這種舞蹈,你希望是什麼?如果從現在起的 1、2、3 年後,你和他在個人層面上的關系也是如此,比如友誼、友好競爭,諸如此類。

Sam Altman:是的,我真的很尊敬埃隆,我希望在未來的幾年裡,我們能保持友好的關系。

記者:是的,我希望你們這個月能友好相處,在競爭中獲勝,共同探索這些想法。我想這是人才競爭或其他方面的競爭,但應該是友好的競爭。隻要造出很酷的東西就行。埃隆很擅長於此,你也一樣。

Sora

記者:說到 Sora,我可以問一百萬個問題。首先,它太神奇。從產品層面來說神奇,從哲學層面來說也很神奇。那麼,讓我從技術 / 哲學的角度問一下,你認為它對世界的理解比 GPT-4 多還是少?當你在這些 patch 和語言 token 上進行訓練時,世界模型是怎樣的?

Sam Altman:我認為所有這些模型對世界模型的理解都比我們大多數人認為的要多。因為它們對不理解或不正確的東西也很清楚,所以我們很容易看到它們的弱點,看穿它們的面紗,然後說“啊,這都是假的”。但這並不全是假的。隻是有些有用,有些沒用。

我記得剛開始看 Sora 視頻時,我會看到一個人在某個東西前面走幾秒鐘,然後把它遮住,然後走開,同樣的東西還在那裡。我就想“哦,這還真不錯”。或者有一些例子,在一個序列的許多步驟中,底層物理看起來表現得非常好,就像 “哦,這真是令人印象深刻”。但從根本上說,這些模型正在變得越來越好,而且這種情況還會繼續發生。如果你看看 DALL・E 1 到 DALL・E 2 到 DALL・E 3 再到 Sora 的發展軌跡,就會發現有很多人在每一個版本中都說它做不到這一點,做不到那一點,但看看現在的情況就知道。

記者:嗯,你剛才提到的“遮擋”基本上是對三維物理世界的物理建模,足以捕捉到這些東西。也許你可以告訴我,為處理遮擋,世界模型需要什麼?

Sam Altman:它在處理遮擋物方面做得非常好。但如果說它有一個很好的底層三維世界模型,這就有點牽強。

記者:但你能通過這種二維訓練數據的方法達到目的嗎?

Sam Altman:看起來這種方法會走得很遠。我不想過多猜測它能突破哪些限制,不能突破哪些限制,但......

記者:你見過這個系統哪些有趣的局限性?我是說你發過的一些有趣的限制。

Sam Altman:各種有趣的都有。我是說,貓咪在視頻中隨機出現的額外限制。隨你怎麼選,但問題還是很多,弱點也很多。

記者:你認為這是方法的根本缺陷,還是模型更大、技術細節更好、數據更好,更多數據就能解決貓發芽的問題?

Sam Altman:我覺得兩者都是。我認為,這種方法似乎與我們的思維和學習方式有所不同。另外,我認為隨著規模的擴大,這種方法會越來越好。

記者:就像我提到的,LLM 有 token、文本 token,而 Sora 有視覺 patch,因此它能將所有視覺數據、各種視覺數據視頻和圖像轉換成 patch。訓練是否可以說是完全自監督的,是否有一些人工標註?人類在其中的參與程度如何?

Sam Altman:我們在工作中使用大量的人類數據,但並沒有具體介紹 Sora 的方法。

記者:但不是互聯網規模的數據?人類如此之多,“很多”是一個復雜的詞,山姆。

Sam Altman:我認為在這種情況下“很多”是一個公平的詞。

記者:因為對我來說,我是一個內向的人,當我和三個人一起出去玩時,那就是“很多”人 —— 四個人,很多。但我想你的意思不僅僅是……

Sam Altman:是的,有超過三個人致力於為這些模型標記數據。

記者:但從根本上來說,有很多自監督學習。因為你在技術報告中提到的是互聯網規模的數據。那是另一種美麗…… 就像詩一樣。所以有很多數據不是人類標註的,是這樣自監督的嗎?

Sam Altman:是的。

記者:然後的問題是,如果我們知道自監督的細節,互聯網上有多少數據可以用於這種有利於這種自監督的方式。您是否考慮過公開更多細節?

Sam Altman:我們有。你的意思是專門針對來源嗎?

記者:具體來源。因為這太有趣,LLM 的同樣魔力現在可以開始轉向視覺數據嗎?需要什麼才能做到這一點?

Sam Altman:我的意思是,在我看來是的,但我們還有更多工作要做。

記者:當然。有什麼危險?為什麼擔心發佈系統?這可能存在哪些危險?

Sam Altman:坦白說,在發佈系統之前我們必須做的一件事就是讓它以一定的效率運行,從而達到人們想要的規模。我不想淡化這一點,那裡還有大量工作要做。但你可以想象深度造假和錯誤信息帶來的問題。我們努力成為一傢深思熟慮的公司,對我們向世界推出的產品深思熟慮,並且不需要太多思考就可以知道這種情況可能會變得糟糕。

記者:這裡有很多棘手的問題,你面臨著一個非常艱難的空間。你認為訓練人工智能應該屬於版權法下的合理使用嗎?

Sam Altman:我認為這個問題背後的問題是,創造有價值數據的人是否應該通過某種方式獲得使用數據的補償,我認為答案是肯定的,隻是還不知道答案是什麼。人們提出很多不同的建議,我們嘗試一些不同的模型。

記者:是的,這就是從 CD 到 Napster 再到 Spotify 的轉變。我們必須找出某種模型。

Sam Altman:模式發生變化,但人們必須得到報酬。

記者:好吧,如果我們進一步縮小范圍,讓人類繼續做很酷的事情,就應該有某種激勵。

Sam Altman:在我擔心的一切中,人類會做出一些很酷的事情,而社會會找到一些方法來獎勵它。我們想要創造,我們想要成為有用的人,我們想要以任何方式獲得地位。我認為這不會有什麼結果。

記者:但獎勵可能不是金錢上的。這可能是其他的名譽和慶祝 ——

Sam Altman:或許可以通過其他方式實現財務方面的目的。再說一次,我認為我們還沒有看到經濟體系如何運作的最後演變。

記者:是的,但藝術傢和創作者很擔心。當他們看到 Sora 時,他們會說“天哪”。

Sam Altman:當然。當攝影出現時,藝術傢們也非常擔心,然後攝影成為一種新的藝術形式,人們通過拍照賺很多錢。我認為類似的事情還會繼續發生。人們將以新的方式使用新工具。

記者:如果我們隻看 YouTube 或類似的內容,你認為在未來五年內,其中有多少內容將使用 Sora 等人工智能生成的內容?

Sam Altman:人們談論人工智能在五年內將完成多少工作。他們的框架是,目前的工作中有多少比例將被人工智能完成的工作完全取代?但我思考的方式不是人工智能將完成多少百分比的工作,而是人工智能在一段時間內將完成多少百分比的任務。

因此,如果你想到經濟中所有的五秒任務、五分鐘任務、五小時任務,甚至五天任務,人工智能可以完成多少任務?

我認為這是一個比人工智能可以做多少工作更有趣、更有影響力、更重要的問題,因為它是一種工具,可以在越來越復雜的水平上工作,在越來越長的時間范圍內完成越來越多的任務,並讓人們以一種更靈活的方式進行操作。所以也許人們的工作效率會更高。

在某種程度上,這不僅僅是一種量的變化,而且對於你可以記住的問題類型也是一種質的變化。我認為 YouTube 上的視頻也是一樣的。許多視頻,也許是大多數視頻,都會在制作中使用人工智能工具,但從根本上來說,它們仍然是由一個人思考、組合、完成其中的一部分來驅動的。有點指導和運行它。

記者:是的,這很有趣。我的意思是這很可怕,但想想很有趣。我傾向於相信人類喜歡觀察其他人類或其他人類。

Sam Altman:人類確實非常關心其他人。

記者:是的。如果有比人類更好的更酷的東西,人類會關心它兩天,然後他們就會回到人類。

Sam Altman:這似乎非常緊密。

記者:這就是國際象棋的故事,“哦,是的”,現在讓我們每個人都繼續下國際象棋。讓我們忽略房間裡的大象,相對於人工智能系統,人類在國際象棋方面確實很糟糕。

Sam Altman:我們仍然參加比賽,汽車的速度要快得多。我的意思是有很多例子。

記者:是的。也許它隻是以 Adobe 套件類型的方式提供工具,可以使視頻之類的事情變得更加容易。我討厭站在鏡頭前,如果能找到一種不在鏡頭前的方法,我會很高興的。不幸的是,這還需要一段時間。生成面孔已經實現,但是當它是特定的人與一般的人時,以視頻格式生成面孔是很棘手的。

GPT-4

記者:讓我問一下有關 GPT-4 的問題。現在回想起來,ChatGPT 的第 3、4、5 可能就是歷史性的關鍵時刻。

Sam Altman:也許 5 將是關鍵時刻。我不知道。很難說期待。

記者:我們永遠不會知道。但對我來說,回顧過去,GPT-4、ChatGPT 非常令人印象深刻。那麼請允許我問一下,您對 GPT-4 、 GPT-4 Turbo 印象最深刻的功能是什麼?

Sam Altman:這是一件不起的事情,但相對於我們需要達到的目標以及我相信我們將會達到的目標,還是糟糕的。

在 GPT-3 時代,人們會說,“哦, 這真太不起。這是技術的奇跡”。確實如此,曾經如此。但現在我們有 GPT-4,再看看 GPT-3,你會想,“這太可怕”。我預計 5 和 4 之間的差值將與 4 和 3 之間的差值相同。

記者:GPT-4 最糟糕的地方是什麼?

Sam Altman:它能做的最好的事情是什麼?

記者:它能做的最好的事情是什麼?這些最好的事情的局限性是什麼?

Sam Altman:我最近使用它的一件事是有點像集思廣益的夥伴。其中有一絲令人驚奇的東西。當人們談論它、它的作用時,他們會說:“哦,它會幫助我更高效地編碼。它幫助我寫得更快更好以及從將這種語言翻譯成另一種語言”所有這些令人驚奇的事情。

但是有一些關於創造性頭腦風暴合作夥伴的東西,“我需要為這個東西想一個名字。我需要以不同的方式思考這個問題。我不知道在這裡做什麼”,正是這些讓我看到一些我希望看到更多的東西。

你可以看到的另一件事是,我可以被幫助完成長期任務,分多個步驟分解某些內容,也許執行其中一些步驟,搜索互聯網、寫代碼,無論如何,把它們放在一起。當這種方法奏效時(這種情況並不常見),那就非常神奇。

記者:與人的反復交流對我來說非常有效。這是什麼意思?

Sam Altman:當人類可以自己解決 10 步問題時,它可以更頻繁地來回迭代。有時它並不經常起作用。

記者:添加多個抽象層還是意味著隻是順序的?

Sam Altman:兩者都是,將其分解,然後通過不同的抽象層將它們組合在一起。我不想低估 GPT-4 的成就,但我也不想誇大它。我認為我們正處於指數曲線上,我們很快就會回顧 GPT-4,就像我們現在回顧 GPT-3 一樣。

記者:也就是說,ChatGPT 是一個過渡,讓人們開始相信信念有所上升,而不是在 OpenAI 內部。

Sam Altman:當然。從這個意義上說,我確實認為這將是世界上很多人從不相信變成相信的時刻。這更多是關於 ChatGPT 界面的。通過界面和產品,我還指的是模型的後期訓練,以及我們如何調整它以對你有所幫助,以及如何使用它而不是底層模型本身。

記者:這些事情有多重要?底層模型和 RLHF 或類似性質的東西可以對其進行調整,使其對人類更具吸引力,對人類來說更加有效和富有成效。

Sam Altman:我的意思是它們都非常重要,但是 RLHF、訓練後步驟、從計算角度來看的事情的小包裝、我們在基本模型之上所做的事情的小包裝 盡管這是一項巨大的工作量,但這確實很重要,更不用說我們圍繞它構建的產品。

從某種意義上說,我們確實必須做兩件事。我們必須發明底層技術,然後我們必須弄清楚如何將其變成人們喜歡的產品,這不僅僅是實際的產品工作本身,而是如何調整它並使其有用的整個其他步驟 。

記者:以及如何讓秤在很多人可以同時使用的情況下發揮作用。

Sam Altman:還有那個。但這是一件眾所周知的困難事。我們知道我們必須擴大規模。我們必須去做兩件以前從未做過的事情,我想說這兩件事都是相當重大的成就,然後是很多其他公司以前必須做的事情,比如擴大規模。

記者:從 GPT-4 到 GPT-4 Turbo,從 8K 到 128K token 的上下文窗口有何不同?

Sam Altman:大多數人大多數時候並不需要一直調到 128。盡管如果我們夢想到遙遠的未來,我們將擁有遙遠的未來,我們將擁有數十億的上下文長度。隨著時間的推移,你將輸入所有信息、所有歷史記錄,它會越來越解你,這非常棒。目前,人們使用這些模型的方式並沒有這樣做。人們有時會發佈論文或代碼存儲庫的重要部分,無論如何,但模型的大多數使用在大多數情況下都不會使用長上下文。

記者:我喜歡你的“我有一個夢想”演講。有一天,人們會根據你的性格或你一生的全部背景來評判你。那很有意思。所以這是你所希望的擴展的一部分,是一個越來越大的背景。

Sam Altman:我看過一次這個互聯網剪輯,我會把數字弄錯,但這就像比爾・蓋茨談論某些早期計算機上的內存量,也許是 64K,也許是 640K。其中大部分用於屏幕緩沖區。他隻是看起來不太真誠,隻是無法想象世界最終會需要計算機中的千兆字節內存或計算機中的兆字節內存。隻需要遵循技術的指數,我們就會找到如何使用更好的技術。所以我現在真的無法想象有一天上下文長度會達到十億個。我知道我們會使用它,而且一旦我們擁有它,我們真的不想再回去。

記者:是的,即使說 10 年後的數十億也可能看起來很愚蠢,因為它將是數萬億美元。未來將會出現某種突破,感覺就像是無限的上下文。但即使是 120,說實話,我也沒有把它用到那個程度,比如放入整本書或部分書籍、論文。你見過哪些有趣的 GPT-4 用例?

Sam Altman:我發現最有趣的事情不是我們可以談論的任何特定用例,事實上,它可以很好地完成很多事情。你可以使用 GPT-V,用它來幫助你寫代碼、做搜索、編輯論文。對我來說最有趣的是那些隻是使用它作為工作流程開始的人。

記者:我在很多事情上也是這樣做的。我用它作為看書的閱讀夥伴。它幫助我思考,幫助我思考想法,尤其是當書籍是經典的時候。我發現它在涵蓋廣泛的主題上通常比維基百科要好得多。它在某種程度上更加平衡和更加細致,激發我比維基百科文章更深入的思考。我不太確定那是什麼。

當我開始使用 GPT 時,我對知識任務的擔憂之一是我通常必須在之後進行事實檢查,例如檢查它是否提出虛假內容。你怎麼知道 GPT 可以提出聽起來確實令人信服的假東西?那麼你如何將其紮根於事實呢?

Sam Altman:這顯然是我們非常感興趣的領域。我認為即將推出的版本會變得更好,但我們必須繼續努力,今年我們不會全部解決。

記者:可怕的是,隨著情況變得更好,你會開始越來越不進行事實核查,對嗎?

Sam Altman:我對此有兩種看法。我認為人們對技術的使用比我們通常認為的要復雜得多。人們似乎真正理解 GPT 或任何這些模型都會產生幻覺。如果它是關鍵任務,你就必須檢查它。

記者:但記者似乎不明白這一點。我見過記者含糊地使用 GPT-4。

Sam Altman:在我想斥責記者的一長串事情中,這並不是我對他們最嚴厲的批評。

記者:嗯,我認為更大的批評也許是作為一名記者的壓力和激勵是你必須非常快地工作,所以(ChatGPT)是一條捷徑。新聞工作需要數天和數周的時間,並會獎勵深度新聞報道。此外,以平衡的方式呈現內容的新聞報道就像在贊揚人們的同時批評他們,批評是獲得點擊的東西,捏造的東西也會獲得點擊和完全錯誤描述的頭條新聞。我相信很多人都會說,“好吧,所有這些戲劇性的內容可能都會獲得很多點擊”。

Sam Altman:可能是這樣。

記憶和隱私

記者:你賦予 ChatGPT 擁有記憶以及關閉記憶的能力。我希望我也有這樣的能力,打開還是關閉取決於自己。我認為酒精可以做到這一點,但效果不佳。

Sam Altman:我們的探索還處於早期階段,但我認為人們想要的,或者至少是我自己想要的,是一個能夠解我並隨著時間的推移對我變得更有用的模型。這還處於早期探索階段,我認為還有很多事情要做。

記者:完成這項任務有多難?因為現在 ChatGPT 更像是記住一些小事實和偏好等等。難道你不想讓 ChatGPT 記住你在 11 月份經歷的戲劇性事件嗎?

Sam Altman:我不僅希望它記住這一點,我也希望它能夠整合其中的教訓,並提醒我將來應該采取哪些不同的做法或要註意什麼。我們從生活經驗中獲益,同樣我希望 AI 智能體也能從這些經驗中獲益。想象一下,如果上下文長度達到數萬億,那麼我可以把我一生中與任何人進行過的每一次對話都放在那裡,比如我可以輸入所有電子郵件、所有信息。每次我問問題時 ChatGPT 都會在上下文窗口中查詢,我認為這非常酷。

記者:是的,如果那樣的話會非常酷。此外人們非常擔心隱私問題。你怎麼看?

Sam Altman:對於隱私與 AI 之間的權衡,你、我可能有不同的看法。

記者:但公司對於用戶信息的選擇應該有一定程度的透明度。就像公司正在收集你的所有數據,但他們會說使用數據是有充分理由的,但具體細節尚不透明。

Sam Altman:這完全正確。剛才聊到去年 11 月發生的事,我認為這是一件非常令人痛苦的事情,讓我在很長一段時間內無法工作。毫無疑問,那段時間我必須做的最艱難的事情就是繼續工作,盡管當時我處於震驚和痛苦之中,但我必須嘗試回到 OpenAI 並將各個部分拼湊起來,沒有人真正關心這一點。有一天早上我醒來,我想,這對我來說是一件可怕的事情。我想我可能會永遠感覺自己是受害者,或者我可以說這是我一生中接觸過的最重要的工作,我需要回到 OpenAI。有時我會在半夜醒來思考這件事,但我確實覺得有義務繼續前進。

記者:是的,這裡面會有一些揮之不去的東西。我擔心的是你提到的信任問題,對別人多疑,而不是相信每個人或大多數人,就像相信你的直覺一樣。這是一個棘手的問題。你似乎已經泰然處之,學到很好的教訓,這很好。我隻是想問一些問題,您對 GPT 能做什麼、不能做什麼的一些直覺。因為它生成每個 token 分配大約相同的計算量。這種緩慢思考、順序思考的方法是否有創新?

Sam Altman:我認為將會有一種新的思維模式。

記者:它在架構上會與我們現在看到的 LLM 類似嗎?

Sam Altman:我可以想象很多方法來實現這一點。我認為這比你所提出的問題更重要,那就是,我們是否需要一種方法來進行更慢的思考,而答案不必馬上得到……

Sam Altman:我還沒準備好討論 Q*

記者:這確實讓我想起 Q* 背後的神秘傳說。這個神秘的 Q* 是個什麼項目?也是在同一個核設施裡嗎?

Sam Altman:我們沒有核設施。

記者:擁有核設施的人都這麼說。

Sam Altman:我倒是希望有一個秘密的核設施,但是我們沒有。

記者:好吧。

Sam Altman:也許有一天會有的。

記者:未來某一天?好吧,人人都可以有夢想。

Sam Altman:OpenAI 並不是一個擅長保守秘密的公司,我們會被很多方方面面的消息泄露所困擾,如果我們真的有核設施就太好。

記者:那你能說一下 Q * 是什麼嗎?

Sam Altman:我還沒準備好討論這個問題。

記者:這樣的回答證明你們的研究很神秘,Sam。

Sam Altman:我的意思是,我們致力於各種研究。此前我們已經說過,我們追求的重要方向是讓系統更好的推理,我們還沒有破解這方面的密碼,因此,我們興趣很大。

記者:是否會有這樣一個時刻,Q * 或者其他研究,會出現類似 ChatGPT 的飛躍。

Sam Altman:這是個好問題,你想問我是怎麼看待這件事的嗎?這很有趣。對我來說,這一切都是連續的。

記者:我們現在談論的研究趨勢,基本上是沿著指數斜率上升的。這是作為一個局外人的角度觀察到的。但對你來說,有沒有這種感覺?

Sam Altman:我們現在采用迭代部署的方式進行研發,而不是秘密進行直到完成 GPT-5,我們決定發佈 GPT-1、2、3 和 4,其中一個原因是我認為人工智能和驚喜不應該搭配在一起。我認為,OpenAI 所做的最好的事情之一就是這個迭代策略,我們讓世界關註 AI 進步,認真對待 AGI。我認為這是非常好的。但是,像你和其他人說的,你們仍然感覺到這些發展趨勢出現跳躍的感覺,這讓我想到,也許我們應該更加迭代地發佈我們的產品。我不知道這意味著什麼,我沒有現成的答案,但我們的目標不是給世界帶來震驚性的更新,我們的目的正好相反。

記者:是的,更加迭代將會非常棒。我認為這對每個人來說都是有益的。

Sam Altman:這正是我們正在嘗試做的,這是我們非常明確的策略,我認為我們在某種程度上沒有達到這個目標。所以也許我們應該考慮以不同的方式發佈 GPT-5 之類的東西。

記者:是的,但人們更傾向於慶祝,例如慶祝生日。

Sam Altman:人們確實喜歡裡程碑式的事物。我能理解,我想我們也喜歡裡程碑式的研究。在勝利的基礎上開始下一件事是很有趣的。但是,我覺得我們在這方面有些許錯誤。

GPT-5 發佈時間未知,但會有新模型

記者:那麼 GPT-5 什麼時候發佈呢?

Sam Altman我不知道。這是誠實的回答。

記者:哦,這是誠實的回答。如果是今年,眨兩次眼。

Sam Altman:今年我們將推出一款令人驚嘆的新模型。我不知道該怎麼稱呼它。

記者:這就引出一個問題,你們如何釋放這個東西?

Sam Altman:我們將在接下來的幾個月中發佈許多不同的東西。我認為,在我們發佈一個類 GPT-5 的模型(你可以理解為 GPT-5,或者不是,又或者比你對 GPT-5 的期望稍差或好一點的模型)之前,我們有很多其他重要的事情要先發佈。

記者:我不知道對 GPT-5 有何期待,這讓我既緊張又興奮。不管它最終是否被稱為 GPT-5,我暫且稱為 GPT-5,在實現之前有哪些需要克服的挑戰和瓶頸?是在計算端嗎?還是技術方面?

Sam Altman:所有這些都有。什麼是最重要的?算力更大的硬件?還是其他東西。在我看來這些都是。我認為 OpenAI 做得非常好…… 引用 Ilya 的原話,就像是“我們將 200 個中等大小的東西相乘,將會變成一個巨大的東西。”

記者:所以這是一種分佈式的持續創新?

Sam Altman:是的。

記者:技術方面也是這樣?

Sam Altman:尤其是在技術方面。

記者:即使有詳細的技術實現也這樣?

Sam Altman:是的。

記者:就像你對每一個細節都做得很細致,這在不同的或者完全不同的團隊中是如何運作的?這些中等大小的東西是如何變成一個巨大的 Transformer 的?

Sam Altman:有些人的想法是把所有事情放在一起,但大部分人需要先在腦海裡構建圖景。

記者:你的意思是說各個團隊、各個貢獻者應該試圖把握更大的圖景?

Sam Altman:在一個高層次上,是的。你當然不可能確切知道每一塊是怎樣工作的,但我認為有時候將視角拉遠,觀察整個圖景是有用的。這對於技術問題、商業創新都很重要,最終結果會以驚人的方式匯聚在一起,即使大多數時間你專註於某一區域的細節中,擁有對整個圖景的理解也會帶來意想不到的洞見。實際上,我可以分享一個非常有價值的東西,我曾經對科技行業中所有或大部分前沿動態有一個好的全景圖。通過這個全景圖我能看到這些領域的連接或新的可能性,如果我隻深入一個領域,我就不可能有這樣的想法,因為我沒有所有的數據。而現在我不再有這種感覺。

記者:你不再是過去的那個 Sam 。

Sam Altman:可能吧,現在的工作和我過去的工作非常不同。

Altman 否認 7 萬億美元芯片計劃

記者:接下來我們聊聊前段時間你在 X 上表示要籌集 7 萬億美元建造芯片廠的事。

Sam Altman:我沒有發 X。我從來沒說過“我們籌集 7 萬億美元”之類的話。

記者:是別人說的嗎?

Sam Altman:是的。

記者:但我記得你說過“Fuck it, maybe eight”。

Sam Altman:好吧,一旦有什麼誤導信息我會發個梗圖。

記者:一方面你會發梗圖,但另一方面錯誤信息可能是別人基於某種洞察推測的。

Sam Altman:我認為算力將是未來的貨幣,它將成為世界上最珍貴的商品之一,我們應該大力投資以產生更多的算力。算力資源將是一個不同尋常的市場,現在人們考慮的大部分是手機芯片市場,世界上有 80 億人,可能有 70 億人擁有手機,或許是 60 億,我們以 60 億來說,假如他們每兩年升級一次手機,那麼每年市場上需求的手機芯片量是 30 億。如果芯片公司生產 300 億個芯片,但按照人們的需求並不會賣出 10 倍多的手機,因為大多數人隻有一部手機。

但算力不同,我們以價格來說,在其價格 X 時,世界會使用這麼多的算力,在價格為 Y 時,世界又會使用另一個數字的算力。如果算力真的很便宜,我會讓它整天閱讀我的電子郵件,給我的工作提出建議,或者嘗試治愈癌癥,如果算力很貴,或者我們隻會使用它來嘗試治愈癌癥。

所以我認為世界將會需要大量的算力,實現這一過程面臨種種困難。其中能源是最困難的部分,此外建設數據中心也很難、制造足夠的芯片同樣也很難。但這似乎是事物的發展方向。我們想要的算力現在還很難推斷出來。

記者:如何解決能源問題?核能?核聚變?

Sam Altman:這就是我所相信的。

記者:誰來解決呢?

Sam Altman:我認為 Helion (一傢美國聚變研究公司)做得最好,我很高興看到正在進行的核聚變競賽。我認為,核裂變也是相當驚人的,我希望世界能夠重新接受這一技術。這段歷史的結束對我來說真的很難過,希望我們能以一種有意義的方式回到過去。

記者:對你來說核裂變是不是困難的一部分?就像我們目前擁有的核反應堆一樣?因為很多人因為切爾諾貝利等事件而感到恐懼?

Sam Altman:我認為我們應該建造新的反應堆。我認為這個行業陷入停滯是一件很遺憾的事。

記者:我不知道你是否解人類,人類似乎真的很害怕核裂變,我們必須贏得人們的支持並展示它的安全性。

Sam Altman:如果這樣的話,我很擔心 AI。

記者:我希望人工智能可以幫助我們看到事物的真相,保持事物的平衡,讓人類知道什麼是真正的風險以及實際的危險是什麼。在這個領域與 Google、Meta、xAI 等公司競爭的利弊是什麼?

Sam Altman:我想我有一個非常直接的答案,也許稍後我能想出更多的細微差別,但好處似乎很明顯,那就是我們能更快、更便宜地獲得更好的產品和更多的創新,所有這些都是各大公司展開競爭的好處。但是如果我們不小心,可能會導致軍備競賽的加劇,這讓我感到緊張。

記者:你是否感受到軍備競賽的壓力?

Sam Altman:在某些方面是肯定的。我們花很多時間討論優先考慮安全的必要性。我已經說過 AGI 的發展趨勢,你能想象在一個象限裡,一是 AGI 開始的時間線還是緩慢的,之後 AGI 發展的速度短暫起飛或快速起飛。我認為短時間 AGI 發展起飛慢是最安全的也是我最希望我們進入的區域。我想確保我們能慢速起飛。

記者:你與馬斯克在安全問題上存在一些分歧。

Sam Altman:至少埃隆說過他非常關心人工智能的安全問題,並且真的很擔心,我認為他不會在不安全的情況下參加競賽。

在某些方面當然是肯定的。我們花很多時間討論安全的重要性,我以前就說過。

記者:是的。但我認為,在這方面的合作對每個人都是有益的。

Sam Altman:這不是他擅長的東西。

記者:他以關心人類而聞名,讓人類從合作中受益。最後,我真心希望人性能戰勝一切。

Sam Altman:我在想,前幾天有人提醒我,在他超越傑夫・貝佐斯成為世界首富的那天,他在 X 上向傑夫・貝佐斯頒發一枚銀牌。我希望隨著人們開始研究 AGI,這樣的事情會少一些。

記者:我同意。埃隆是我的朋友,他是一個有理想的人,也是有史以來最重要的人之一。

Sam Altman:埃隆的神奇之處在於,我非常尊重他。我想我們需要他。我們所有人都應該支持他,並需要他在接下來的階段作為領導者挺身而出。

Google和 Gemini

記者:在搜索的幫助下,Google在過去的 20 年裡一直占據著主導地位,在世界信息獲取、互動方式等方面。目前Google感到非常緊張,但對於這個領域的所有人來說,他們都在思考,人們將如何獲取信息?就像你說的,人們會以 GPT 為起點。那麼,OpenAI 是否會真正承擔起Google 20 年前開始做的這件事,也就是“獲取信息”?

Sam Altman:我覺得這很無聊。我的意思是,如果問題是我們能否打造一個比Google或其他公司更好的搜索引擎,那麼當然,我們應該去做,人們應該使用更好的產品,但我認為這太不值一提。Google向你展示 13 個廣告,然後是 10 個藍色鏈接,這是尋找信息的一種方式。但讓我感到興奮的並不是我們可以復制Google搜索,而是也許有更好的方法可以幫助人們查找信息、采取行動並綜合信息。事實上,我認為 ChatGPT 在某些用例中就是這樣,希望我們能讓它在更多用例中都能如此。

但我不認為“我們如何比Google更好地為你提供 10 個排名靠前的網頁”多有趣,還不如“我們如何幫助你得到你需要的答案或信息?”,展開說就是:在某些情況下,我們如何幫助你創建答案或信息;在另一些情況下,我們如何幫助你綜合答案或信息;在另外一些情況下,我們如何幫助你找到答案或信息?

很多人都想做一個比Google更好的搜索引擎,這是一個很難解決的技術問題,也是一個很難解決的品牌問題,更是一個很難解決的生態系統問題。我認為世界不需要另一個Google。

記者:那麼將聊天客戶端(如 ChatGPT)與搜索引擎集成在一起呢?

Sam Altman:那就更酷。

記者:這很酷,但很棘手。如果你隻是簡單地做,會很尷尬,因為如果你隻是把它塞進去,也會很尷尬。

Sam Altman:正如你可能猜到的,我們對如何做好這一點很感興趣。這就是一個很酷的例子。LLM 和搜索的交集,我想還沒有人破解過。我很想去做這件事,那一定很酷。

記者:廣告方面呢?你有沒有考慮過貨幣化?

Sam Altman:作為一種審美選擇,我有點討厭廣告。我認為,出於種種原因,廣告需要出現在互聯網上,讓它發展起來,但這隻是一時的行業。現在的世界更豐富。我喜歡人們為 ChatGPT 付費,並知道他們得到的答案不受廣告商的影響。我相信有一個廣告單元對 LLM 來說是有意義的,我也相信有一種方法能以不帶偏見的方式參與到交易流中去,但這也很容易讓人聯想到對未來的悲觀想象:你問 ChatGPT 一些問題,然後它會說“哦,你應該考慮一下購買這個產品”或者“你應該考慮一下去這裡度假”之類的。

我不知道,我們有一個非常簡單的商業模式,我喜歡它,我知道我不是產品。我知道我在付錢,這就是商業模式的運作方式。而當我使用 Twitter、Facebook、Google或其他偉大的產品時,我並不喜歡這種廣告支持的偉大產品,而且我認為在有人工智能的世界裡,這種情況會變得更糟,而不是更好。

記者:我可以想象人工智能會更好地展示最佳版本的廣告,其中的廣告都是你真正需要的東西。但這樣的系統是否總能讓廣告驅動所展示的內容呢?是的,我認為維基百科不做廣告是一個非常大膽的舉動,但這也使得維基百科的商業模式極具挑戰性。所以你的意思是說,從商業角度來看,OpenAI 目前的做法是可持續的?

Sam Altman:嗯,我們必須弄清楚如何發展,但看起來我們會弄清楚的。如果問題是我是否認為我們可以擁有一項偉大的業務,在沒有廣告的情況下滿足我們的計算需求,我認為答案是肯定的。

記者:嗯,很有希望。我也不想完全拋棄廣告......

Sam Altman我不是這個意思。我想我是說我對廣告有偏見。

記者:是的,我也有偏見,隻是總體上持懷疑態度。就界面而言,我個人對蹩腳的界面深惡痛絕,這也是為什麼 AdSense 剛問世時,相對於動畫橫幅或其他形式,是一個很大的飛躍。但我覺得,在廣告方面應該有更多的飛躍,而不是幹擾內容的消費,也不是以一種大的、根本性的方式進行幹擾,這就像你剛才說的,就像它會操縱真相來迎合廣告商一樣。

GPT-5 的躍升

記者:從 GPT-4 到 GPT-5 的飛躍中,你對哪些方面感到興奮?

Sam Altman:我很高興能變得更聰明。我知道這聽起來像是一個花言巧語的回答,但我認為真正特別的地方在於,它並不是在這個領域變得更好,而在其他領域變得更糟,而是全面發展。我認為,這才是超酷的。

記者:是的,有這樣一個神奇的時刻。我是說,你會遇到一些人,你會和一些人出去玩,你會和他們交談。你無法用語言表達,但他們懂你。這不是智力問題,而是別的東西,這大概就是我對 GPT 進展的描述。這並不是說,你可以指出,“看,你沒有理解這個或那個”,但這隻是在多大程度上存在這種智力上的聯系。你會感覺到,在你所做的蹩腳的表述提示中,你理解問題背後更深層次的問題。是的,我也為此感到興奮。我是說,我們都喜歡被傾聽和理解。

這種感覺很奇怪。在編程方面,展望未來,你認為 5 到 10 年後人類會做多少編程工作?

Sam Altman:我的意思是,會有很多,但我認為形式會大不相同。也許有些人會完全用自然語言編程。

記者:完全用自然語言?

Sam Altman:我是說,沒有人會用代碼編程。有些人是這樣。沒人再用打卡機編程。我相信你能找到會編程的人,但你知道我的意思。

記者:是的,很少。我一直在找 Fortran 編程的人,連 Fortran 都很難找。我明白你的意思,但這也改變我們所說的程序員的技能或傾向。

Sam Altman:改變技能組合。至於改變多少,我不確定。

記者:編程很難。就像如何縮小最後 1% 的差距?這有多難?

Sam Altman:是的,我認為在其他大多數情況下,最優秀的從業者都會使用多種工具。他們會用自然語言做一些工作,當他們需要用 C 語言寫一些東西時,他們就會這麼做。

記者:我們是否會在某個時候看到來自 OpenAI 的仿人機器人或仿人機器人大腦?

Sam Altman:會的。

記者:具身人工智能對你來說有多重要?

Sam Altman:我認為,如果我們有人工智能,而在物理世界中完成事情的唯一方法就是讓人類去做,那就太令人沮喪。所以我真的希望,作為這個過渡的一部分,作為這個階段性變化的一部分,我們也能獲得仿人機器人或某種物理世界的機器人。

記者:OpenAI 在機器人技術方面有一些歷史和相當多的工作經驗,但在倫理道德方面還做得不夠。

Sam Altman:我們是一傢小公司。我們必須非常專註。另外,機器人在當時之所以難以普及,原因是錯誤的,但我們會在某個時候以某種方式重返機器人領域。

AGI

記者:你認為人類什麼時候能達到 AGI?

Sam Altman:我以前很喜歡猜測這個問題。後來我意識到,這個問題很不成熟。而且人們對 AGI 的定義也大相徑庭。因此,我認為更有意義的做法是,討論我們什麼時候才能建立起具有 X、Y 或 Z 功能的系統,而不是模糊地討論我們什麼時候才能跨過這一裡程碑。AGI 也不是終點。它更接近於一個裡程碑式的開端。不回避這個問題,我預計到在下個十年的末期,甚至可能更早,我們將擁有相當強大的 AI 系統。我們看著它,會說:"哇,這真的很不起。"如果我們現在就能看到這麼強大的系統, 也許到那時我們已經完全適應 AGI 生活。

記者:但如果你給阿蘭・圖靈展示 ChatGPT 3.5,90 年代的人或許會說:“這絕對是 AGI”,應該會有很多計算機專傢會說:“這就是 AGI”。

Sam Altman:是的。但我不認為 ChatGPT 3.5 改變世界。它也許改變世界對未來的預期。它的確讓更多人認真對待 AI 相關的問題,並讓我們的生活走上新的軌道。這一點也非常重要,我不想低估 ChatGPT 3.5 的作用。如果我發完 ChatGPT 3.5 就退休,我可能會對我的職業生涯非常滿意,但我不認為在回首往事時,提到 ChatGPT 3.5 時說的是:“那是一個真正改變世界的門檻”。

記者:所以對你來說,你正在追尋能改變世界的重大轉變?

Sam Altman:對我來說,這就是 AGI 的部分含義。

記者:這種轉變是奇點級別的轉變嗎?

Sam Altman:不,肯定不是。

記者:那麼對於重大轉變,類似互聯網、Google搜索這種級別的,你覺得現在的轉變點是什麼?

Sam Altman:你感覺現在的全球經濟與我們推出 GPT-4 之前有什麼不同嗎?我覺得你的答案是:沒有。

記者:確實沒有。對很多人來說,它可能隻是一個非常好用的工具。它能幫你解決很多問題,但感覺並沒有什麼顛覆性的改變。所以,你真正想說的是?

Sam Altman:我是說,人們對 AGI 有各種不同的定義。所以也許你的定義和我不同。但對我來說,我認為改變全球經濟應該是 AGI 的一部分。

記者:戲劇性的轉變時刻可能還等候在未來。對你來說,AGI 將會出做什麼令人印象深刻的事情?你是離 AGI 最近的人。

Sam Altman:我不知道我對 AGI 的定義是否正確。但我認為,當一個系統能夠顯著提高科學發現的速度時,這就是一件大事。大多數真正的經濟增長都來自科技進步。

記者:我同意你的觀點,這也是我不喜歡近年來質疑科學的言論的原因。

Sam Altman:完全同意。

記者:實際的、可測量的科學發現。但哪怕隻是看到一個 AI 擁有真正的直覺、科學直覺,那也是不可思議的。

Sam Altman:是的。

記者:你可能會成為構建 AGI 並能夠與它交流的人,你會和它討論些什麼?

Sam Altman:OpenAI 的研究人員肯定會在我之前和 AGI 交流。正如我們之前所討論的,這是一個錯誤的思維框架。如果有人對我說:“好的,Sam,我們完成。這是一臺筆記本電腦,這就是 AGI。你可以去和它交流。”第一個 AGI 不會是這樣的。我不認為我會問它:“給我解釋一下物理的大統一理論,物理的萬物理論。”不過這是我最想問它的問題。

記者:你可以先問判斷是或否的問題,比如:“這種理論存在嗎?它能存在嗎?”

Sam Altman:那麼,我以後先問這些問題。

記者:是還是不是。然後基於此,“那裡還有其他外星文明嗎?是還是不是?你的直覺是什麼?”然後你就問這個。

Sam Altman:不過,我的意思是,我不指望第一個 AGI 能回答這些問題,即使隻用 “是 ”或 “否”來回答。但如果它能,我會首先問你教我的問題的。

記者:也許你可以開始分配概率?

Sam Altman:也許吧。也許我們需要先發明更多的技術,測量更多的數據。

記者:哦,我明白。隻是沒有足夠的數據。如果它(能獲得足夠的數據),那麼 AGI...

Sam Altman:我的意思是,也許它的回答是:“你想知道這個物理問題的答案,我需要你制造這臺機器,進行這五次測量,然後告訴我......”

記者:在數學方面,也許 AGI 能證明一些定理。你對正式探索思維邏輯這方面也感興趣嗎?

Sam Altman:Emmm。

記者:誰首先建造 AGI,誰就會獲得很多權力。你相信自己能承擔那麼多權力嗎?

Sam Altman:我會非常誠實地回答這個問題。我相信我或者其他任何人都不應該對 OpenAI 或 AGI 擁有完全的控制權。我認為需要一個健全的治理系統。比如去年我們董事會的所有“宮鬥”。我最初沒有提出反對,隻是想著,“是的。這是董事會的意願,盡管我覺得這是一個非常糟糕的決定。”後來,我明確地反對。我可以解釋我前後決策的細微差別,以及為什麼後來我覺得可以反對那個決定。但正如許多人所看到的,盡管董事會在法律上有權解雇我,實際上它並沒有完全起效。這本身就是一種治理失敗。在這裡,我要為當時我的具體情況辯護兩句。我認為大多數人都會同意我說的。但經歷一系列抓馬的“宮鬥”事件之後,我很難直視著你的眼睛,對你說,“嘿,董事會還可以隨時解雇我。”我從來沒有獨裁 OpenAI 的想法。我從未有過,也從未想要過超級控制權。即使在所有這些瘋狂的事情之後,我仍然不想要。我一直認為公司沒有資格對涉及社會方面對問題做決定,我們真的需要政府來制定規則。

不過我又意識到,這意味著像 Marc Andreessen(著名矽谷投資人、Mosaic 瀏覽器開發者,因馬斯克起訴,OpenAI 發佈聲明,Marc 質疑其中不開源,但每個人都能從 OpenAI 構建的成果裡受益的觀點,嘲諷道:“怎麼不立刻把你的實驗室國有化、軍事化呢?”)這樣質疑 OpenAI 這樣的人,他們會說 OpenAI 被規則俘虜。(規則俘虜:一種政治腐敗或政府行政失敗的現象。指政制定某種公共政策或法案,在損害公眾利益的狀況下,使特定領域商業或政治上的利益團體受益)我不願意在這方面被誤解。這不是真的。時間將會證明為什麼這一點很重要。我為 OpenAI 做出很多糟糕的決定,也有很多好的決定,我對過去的總體表現還是挺驕傲的。但我認為任何一個人都不應該有,我也不認為任何一個人將會有控制 AGI 的權力。現在思考這個問題還比較抽象,但 AGI 正在整個社會中以一種良好和健康的方式發生。但我認為任何一個人都不應該有控制 AGI 的權力,或者向 AGI 發展的方向。這樣的事情現在也在發生。

記者:感謝你的分享。你的想法很有洞察力,特別是你知道董事會在法律上有權解雇你,但人類可以操縱大眾,從而凌駕於董事會之上等等。但我認為這個故事還有更正面的版本:即人民仍然擁有權力,所以董事會也不能過於強大。這其中存在權力的平衡。

Sam Altman權力平衡當然是好事。

記者:你擔心失去對 AGI 的控制嗎?很多人擔心的不是國傢統治者,不是安全問題,而是 AI 本身存在的風險。

Sam Altman:就我目前的看法而言,這不是我最擔心的問題。曾經有一段時間我對此非常擔心。未來可能繼續成為我最擔心的問題。但現在這不是我最擔心的問題。

記者:你不擔心 AGI 失控是為什麼呢?因為還有很多其他事情需要你擔心,對吧?你會被 AGI 失控嚇到嗎?我們 ——

Sam Altman:當然。

記者:…… 可能會被嚇到?

Sam Altman:當然。說這不是我最擔心的問題並不意味著我們不需要關註它。我們需要努力解決這個問題。雖然這非常困難,但我們這裡有很棒的人在從事相關工作。還有很多事情需要被適當地處理。

記者:對你來說,現在要逃出這個“思維定式”很難吧,考慮到網上的言論...

Sam Altman:我們之前談到戲劇性風險。那就是一種戲劇性風險。這可以改變人們對這個問題的普遍看法。有一大群非常聰明又懷有很大善意的 AI 安全研究人員過分關註這個問題。我認為他們沒有取得太多進展,但卻過分糾結於這個問題。我實際上很高興他們這麼做,這個問題需要被關註。但太過關註會使得很多其他非常重要的與 AI 相關的風險被排除在討論之外。

記者:鑒於 Sora 生成模擬世界的能力,如果你有過我們生活在由 AI 系統生成的模擬世界的想法,Sora 是否增加你的信念?

Sam Altman:有點吧。我不認為 Sora 是最有力的證據。我認為每個人對我們能夠生成世界這一事實都或多或少增加點信念吧,或者至少增加對這個觀點的開放性。但我確信我們最終能夠做到類似 Sora 所預示的事情。它發生得比我想象的要快,但我猜那將不是一個重大的更新。

記者:是的。但事實是…… 而且可以預見,它會變得越來越好…… 你可以基於訓練數據生成全新的世界,用 AI 做到這一點似乎很容易。創建宇宙、一個或超現實或很真實的電子遊戲世界都將變得很容易。那麼先通過 VR 頭顯,再基於物理的層面上,迷失在那個虛擬世界中又會有多容易呢?

Sam Altman:最近有人和我討論過這個問題。有時候會有這些聽起來很簡單但令人迷惑的見解。舉個例子,比如平方根函數,四的平方根,沒問題。二的平方根,好的。很容易就能給一個孩子解釋清楚這些簡單的平方根的概念,通過觀察一些簡單的幾何也能看到,你再問負一的平方根是什麼?這和你提出的問題類似,令人迷惑的原因在於負一的平方根將你帶入另一種現實。

你可以想出很多其他的例子,但我認為這個平方根運算符在很多關於新知識領域的想法都適用的。我認為有很多這樣的運算符。我認為,人們之所以會認為自己所贊同的模擬假說都比之前更有可能成真,其中有很多運營的成分。但對我來說,Sora 的工作並不是我最關心的五件事之一。

記者:我確實認為,從廣義上講,人工智能將是通往另一波 C 級現實的最佳通道。

Sam Altman這似乎是肯定的。

記者:你認為當我們仰望天空時,還有其他的外星文明,智能的文明存在嗎?

人類智慧

Sam Altman:我覺得答案是肯定的。費米悖論非常令人費解。

記者:我覺得智能不擅長處理這樣強大的技術。與此同時,我相信外面存在著大量的外星智慧文明,隻是太空旅行真的很難。這也讓我思考智能的本質。也許我們真的對智能的本質視而不見,也許 AI 能幫助我們看清這一點。這並不像 IQ 測試和簡單的解謎那麼簡單,還有一些更重要的東西。那是什麼讓你對人類的未來充滿希望?

Sam Altman:我覺得過去的東西很多。我的意思是,我們隻要看看人類在不長的時間裡做些什麼,巨大的問題,深刻的缺陷,很多讓人超級羞愧的事情。但總的來說,非常鼓舞人心。給我很多希望。

記者:我們一起向更美好的未來邁進。

Sam Altman:我其實很好奇,AGI 是更像某個單一的大腦,還是更像我們所有人之間的社會支架?你與你的曾曾曾祖父母的基因變化不大,但能力卻大不相同,所知道的也大不相同。這並不是因為生物學上的變化。你可能變得更健康一些,這是因為有現代醫學,你也吃得更好,等等。但你所擁有的,是人類共同創造的。一個人是沒法兒制造 iPhone 的,一個人也沒法兒去發現所有的科學。但你可以使用它,這種共同創造給你難以置信的能力。從某種意義上說,我們共同創造這一切,這讓我對未來充滿希望。這是一件集體性很強的事情。

記者:是啊,我們站在巨人的肩膀上。當我們談到 AI 風險時,你提到有時你會擔心自己的生命安全。你想過自己的死亡嗎?你害怕死亡嗎?

Sam Altman:如果我明天就中槍,而且我今天就知道,我會說,“哦,那太可悲。我想直到接下來將發生什麼,這很讓人好奇。”不過,大多數時候,我都會為自己的生命感到慶幸。

記者:我也是。現在這樣的生活太棒,我可以享受到人類的偉大創造,我相信 ChatGPT 就是其中之一,還有 OpenAI 所做的一切。Sam,很榮幸能再次與你交談。

Sam Altman:很高興與你交談。感謝您的邀請。


相關推薦

2024-03-02

一紙訴狀,把OpenAI告上法庭,科技圈又炸開鍋。他認為奧特曼和OpenAI公然違背創始協議轉向盈利,還聲稱GPT-4按協議標準已經算作AGI,要求OpenAI恢復開源。OpenAI一方的最新回應也來:據Axios消息,OpenAI高管在給員工的內部消息中

2023-11-21

接上回。上次我們聊到,AI圈子頂流男星OpenAI公司的CEO奧特曼,一夜之間被掃地出門。走的時候,連帶著把自己的好哥們董事會主席格雷格·佈羅克曼,一起薅下臺。這事讓整個AI圈子沸騰一整天,至於他們為啥會被“失業”,官

2024-03-20

性能就是模型的一切!Altman首次公開曝料:GPT-5將會有史詩級提升,小看它的公司都會被碾壓。而未來,AI將成為推動文明發展的核心動力。大傢可能還沒從剛剛開源的Grok中回過味來。外媒就又曝料,Altman首次公開表示:GPT-5提

2024-03-18

是閉源?起訴與回擊:真相如何?2015年12月,馬斯克與奧特曼(Sam Altman)等人一同創立OpenAI,3年之後,他離開OpenAI董事會。此後,馬斯克雖有指責OpenAI違背“非盈利組織”的創始宗旨,自己開設xAI公司推出競品與ChatGpt公然打擂

2023-11-23

hatGPT,它的問世其實就部分基於有效利他主義的原則。奧特曼和馬斯克於2015年開始組建OpenAI,兩人當時的願景便旨在實現通用人工智能(AGI),這是一種推理能力達到或超過人類水平的系統。他們當時表示,希望以一種造福人

2023-11-20

前報道,在OpenAI董事會於上周五宣佈解雇其CEO薩姆·阿爾特曼(Sam Altman)後,特斯拉CEO埃隆・馬斯克(Elon Musk)呼籲OpenAI公佈解雇阿爾特曼的原因。據悉,OpenAI由馬斯克、阿爾特曼、PayPal聯合創始人彼得·蒂爾等矽谷科技大亨於2

2023-11-23

發機構OpenAI宣佈,已經原則上達成協議,創始人山姆·奧特曼重返公司擔任CEO,“並組建由BretTaylor(主席)、LarrySummers和AdamD‘Angelo組成的新董事會。我們正在合作找出細節。非常感謝你對此的耐心等待。”從OpenAI董事會宣佈罷

2023-11-22

發機構OpenAI宣佈,已經原則上達成協議,創始人山姆·奧特曼重返公司擔任CEO,“並組建由佈雷特·泰勒(BretTaylor)(主席)、拉裡·薩默斯(LarrySummers)和亞當·德安傑洛(AdamD’Angelo)組成的新董事會。我們正在合作找出細節

2023-12-02

參與董事會政變,但在幾乎所有公司員工威脅如果罷免奧特曼辭職就辭職後,他改變主意。“我花好幾分鐘才緩過神來”Q:Sam,事後看來,讓你回歸 OpenAI 的最大動力是什麼?Sam:整個過程還挺有趣。周六早上,董事會的人打來

2024-03-02

OpenAI的董事會。而在動蕩之後的新任董事會成員,是由奧特曼先生挑選並得到微軟認可的。這些新董事會成員在AI的專業知識不足,並且很可能是有意設計成無法獨立判斷OpenAI是否達到AGI,以及何時開發出超出微軟許可范圍的算

2023-11-30

AI第一季真的大結局。就在ChatGPT即將一周年之際,官宣奧特曼已正式回歸。CEOAltman、CTOMurati、總裁Brockman位置都不變,不過有個新變化:微軟終於擠進董事會。新董事長Bret Taylor宣佈,微軟將獲得一個席位,但僅僅是沒有投票權

2023-11-24

隨著OpenAICEO奧特曼回歸,宮鬥大戲告一段落,但仍留下許多未接的謎題。其中最為關鍵的,就是當初奧特曼為何會被董事會解雇。昨日,有媒體透露,就在奧特曼被開除四天前,幾名研究人員向董事會發出一封信,警告一項強大

2023-12-03

OpenAI動亂終極原因,疑似被揭秘!外媒紐約客長文曝出動亂始末,起因疑似是Altman和女董事HelenToner起齟齬,Altman希望踢掉Helen,但不幸被Helen先發制人。果然,時值ChatGPT一周年之際,OpenAI的大戲,還沒完。前幾天Greg、Altman、Mira

2024-02-19

人提供訪問權限。因此模型發佈當天,OpenAICEO薩姆·奧爾特曼(SamAltman)在社OpenAI 聯合創始人兼總裁格雷格·佈羅克曼(Greg Brockman)、CTO 米拉·穆拉蒂(Mira Murati)等人,也在積極為 Sora 宣傳。但伊爾亞的最後一條推文,停留在