OpenAI管理層大換血,在換血後,OpenAI內部緊急召開一場員工大會,在這場緊急員工大會上,OpenAI聯合創始人兼董事會成員IlyaSutskever主要負責回答問題。會上兩名員工詢問此次解雇是否構成“政變”或“敵意收購”,但被IlyaSutskever否定,他將問題帶回安全議題本身。事實上在“罷免”事件發生前,員工內部已經就該公司開發人工智能是否足夠安全進行過爭論。
不是“政變”,而是“安全”問題
根據會議記錄,至少有兩名員工詢問負責 OpenAI 最大研究突破的Ilya Sutskever,此次解雇是否構成“政變”或“敵意收購”。對於一些員工來說,這個問題暗示蘇茨克弗可能認為Altman在將該軟件商業化方面動作太快——該軟件已經成為一項價值數十億美元的業務——而犧牲潛在的安全問題。
“你可以這樣稱呼它,”Ilya Sutskever在談到‘政變指控’時說道。“我可以理解你為什麼選擇這個詞,但我不同意這一點。這是董事會履行非營利組織使命的職責,即確保 OpenAI 構建造福全人類的 AGI。” AGI 代表通用人工智能,這個術語指的是能夠像人類一樣進行推理的軟件。(另一人表示,Sutskever 可能誤解與其他方可能對 OpenAI 進行惡意收購有關的問題。)
當被問到“這些通過後臺清除的方法是否是管理世界上最重要的公司的好方法?” 他回答說:
“公平地說,我同意其中100%存在不理想的因素。”
Altman本人並沒有參與將他踢出董事會的那場投票,此前華爾街見聞已經報道,當“罷免”消息公佈後,Greg Brockman在社交平臺上梳理自己與 Sam Altman被董事會罷免的細節,並梳理時間線。
但開除Altman的六人董事會並沒有解釋此舉的原因,隻是說Altman“向董事會的溝通不夠坦誠”,但在公司為開除後的內部危機管理中,安全一直是最大的主題。
例如,在周五致員工的備忘錄中,暫時擔任CEO的Mira Murati提到“我們的使命和共同開發安全有益的通用人工智能的能力”。
她說公司有三大支柱:“最大程度地推進我們的研究計劃,我們的安全和價值觀調整工作——特別是科學預測能力和風險的能力,以有利於所有人的方式與世界分享我們的技術。”
根本分歧已經持續很久
關於AI安全的顧慮使這傢創業公司的領導人產生分歧。
2020年底,一部分員工由於在公司的商業戰略和技術發佈速度上的分歧,從OpenAI分裂出去創立自己的創業公司Anthropic。而為確保OpenAI的技術開發不會受到財務激勵的影響,Anthropic組建一個獨立的五人小組,可以雇傭和解雇公司的董事會。
多年來,AI從業者一直擔心更強大的模型可能被濫用,比如開發生物武器、生成有說服力的深度偽造或入侵關鍵基礎設施。一些人還認為這些系統最終可能會變得自主並以人類的代價失控。
隨著OpenAI開發出可以自動化寫作、編程和從零生成逼真圖像的突破性人工智能,公司的一些員工討論這樣的AI潛在危害——特別是如果它學會自我改進。
今年夏天公司成立一個團隊,由Sutskever和‘alignment’研究員Jan Leike共同領導(AI alignment研究就是通過各種技術手段,使AI系統的目標與人類利益一致,防止AI系統做出危害人類的行為),致力於尋找技術解決方案,防止其AI系統失控。在一篇博文中,OpenAI說它將專註五分之一的計算資源來解決“超級智能”的威脅,蘇茨克韋爾和Leike寫道這“可能導致人類失去權力甚至滅絕”。
與Altman的野心與激進形成對比的是,Sutskever一直以來都非常關註安全,在7月的一次采訪中,蘇茨克韋爾說,他最擔心強大的通用AI在未來幾年的危險性,但希望未來AI技術可以幫助人類對自己進行監管,可能解雇Altman本身就是這個“alignment”的例子。
他在公司內有許多追隨者。前員工將他描述為一位備受尊敬和親力親為的領導者,他對指導這傢創業公司的前沿技術至關重要。