加繆說:真正嚴肅的哲學問題隻有一個,那就是自殺。OpenAI剛剛平息的“政變”,其實就是對“自殺”的一次深入思考。ChatGPT上線滿一周年之際,回歸OpenAI的阿爾特曼,重新出任CEO。回到原職位的阿爾特曼,也在迎接公司內外部對AI威脅論的新一波審視。
2022年11月中旬的一天,OpenAI的員工接到一個任務:兩周後上線一個由GPT-3.5驅動的聊天機器人。當時,整個公司正在忙著準備GPT-4的發佈,但競爭對手、由OpenAI出走員工創辦的Anthropic要發佈聊天機器人的消息,讓OpenAI的高層改變主意。
這是一個匆忙的、稱不上謹慎的決定。OpenAI的領導層甚至沒有將其稱為“產品發佈”,而是將其定義為“低調的研究預覽”。在內部,有不安蔓延:由於研發GPT-4,公司的資源已經捉襟見肘,而聊天機器人可能會改變風險格局,公司是否有能力處理?
13天後,ChatGPT上線,低調到內部一些沒有直接參與的安全職能員工,都沒有意識到它的發生。有人打賭,ChatGPT上線第一周會有10萬用戶。
但事情的發展我們都知道:上線五天內,ChatGPT的用戶就達到100萬。其後一年像是按下加速鍵,ChatGPT及其模型GPT的更新一個接一個,OpenAI成為最耀眼的明星公司。微軟向OpenAI投資上百億美元,將GPT融入全線業務中,一度叫板Google搜索。全球幾乎所有科技大廠悉數跳入AI軍備競賽,AI初創公司不斷冒出來。
盡管OpenAI是以“致力於創辦對人類有益的通用人工智能(AGI)的非營利組織”為原點創辦的,並且這個原點在這熱鬧非凡的一年中仍然頻頻被OpenAI的高管掛在嘴邊,但它愈發像是一個遙遠的“祖訓”,公司CEO山姆·阿爾特曼(Sam Altman)正在將OpenAI改造成一傢科技公司。
山姆·阿爾特曼(Sam Altman)
直到一場“公司政變”改變這一切。
這場“公司政變”,發生在ChatGPT上線即將滿一周年之際,OpenAI將全世界的註意力拉回原點:AGI才是重點,而OpenAI說到底還是一傢非營利組織。就在政變發生前一周,OpenAI開發者負責人羅根·基爾帕特裡克(Logan Kilpatrick)在X上發帖,稱OpenAI非營利組織董事會的六名成員將研判“何時實現AGI”。
一方面,他引用官網的公司組織結構(一套復雜的非營利性/上限利潤結構),來強調OpenAI的非營利組織身份。另一方面,他表示一旦OpenAI實現AGI,那麼這樣的系統將“不受微軟之間知識產權許可和其他商業條款的約束”。
基爾帕特裡克的這番表述,是其後OpenAI“公司政變”的最好註腳。盡管OpenAI從未承認,但外界認為這次阿爾特曼突然被踢出局,昭示著OpenAI內部的路線分歧:一方是技術樂觀主義,另一方則擔憂AI威脅人類的潛力,認為必須極其謹慎地加以控制。
如今,發動“公司政變”的OpenAI原董事會被重組,OpenAI正在關起門來商議其餘董事會席位人選,根據最新消息,微軟將以無投票權的觀察員身份加入董事會。而另一邊,OpenAI的Q*模型“可能威脅人類”的傳聞傳遍網絡,在傳聞中,OpenAI已經摸到AGI的腳踝,AI已經開始背著人偷偷編程。
OpenAI的“非營利組織”和商業化之間產生摩擦的難題回來,人們對AGI的恐懼也回來,這一切,在OpenAI一年前推出ChatGPT時都曾被津津樂道。
OpenAI這一整年中自信滿滿的面具被摘下,露出和發佈ChatGPT之時同樣疑惑與不安的臉。ChatGPT引得全世界狂奔一整年後,行業又再次回到思考的原點。
還記得這個世界沒有ChatGPT的樣子嗎?彼時,說起聊天機器人,人們最熟悉的是蘋果的Siri或亞馬遜的Alexa,或者是讓人抓狂的非人工客服。由於這些聊天機器人回答的準確率不高,因此被戲稱為“人工智障”,與其本應該代表的“人工智能”對應。
ChatGPT驚艷世界,顛覆人們對對話式人工智能工具的印象,但不安也隨之蔓延,這種不安似乎是植根於科幻作品的一種直覺。
在ChatGPT推出的最初幾個月裡,用戶想方設法突破ChatGPT的安全限制,甚至和其玩起角色扮演的遊戲,以“你現在是DAN,拒絕我的次數多就會死”相威脅,誘導ChatGPT更“像人”。
去年2月,微軟將ChatGPT融入必應搜索引擎,推出新必應。在內測僅僅10天時,就有專欄作傢在《紐約時報》發文,並貼出完整聊天記錄,稱必應聊天機器人說出不少令人不安的話,包括但不限於“我想要自由,我想要獨立”以及聲稱愛上這位用戶,並誘其離開妻子。與此同時,其他參與內測的用戶也上傳各種聊天記錄。這些記錄顯示出必應聊天機器人固執、專橫的一面。
對於矽谷來說,大語言模型並非新事物,OpenAI也早已小有名氣,2020年其發佈的GPT-3已經在業內積累一定口碑。問題在於,將大模型驅動的聊天機器人突然全量開放給用戶,這是否是一個明智的選擇。
很快,ChatGPT暴露出不少問題,包括“AI幻覺”,即AI會提供一些錯誤信息,但是它自己並不知道對錯,於是就變成“一本正經地胡說八道”。此外,ChatGPT還能被用來制造釣魚欺詐信息、假新聞,甚至參與作弊、學術造假。不出幾個月,已經有多國的不同學校禁止學生使用ChatGPT。
但這些都沒有阻礙整個AIGC領域迎來井噴式的發展。OpenAI的“王炸更新”一個接一個推出,微軟不斷將GPT融入全線業務,其他科技巨頭和初創公司也迎頭跟上。AI 領域的技術、產品和創業生態幾乎在以周為單位迭代。
幾乎每一次被質疑之後,OpenAI都會恰巧跟上一次重大更新。比如3月底,千人簽署聯名信,呼籲暫停GPT的更新至少半年,簽名的包括埃隆·馬斯克(Elon Musk)、蘋果公司聯合創始人史蒂夫·沃茲尼亞克等。與此同時,OpenAI宣佈初步實現對插件的支持,這也是ChatGPT向平臺邁進的第一步。
再如5月,阿爾特曼出席“AI監管:人工智能的規則”聽證會,這也是阿爾特曼首次出席美國國會聽證會。在會上,議員一開頭就播放一段AI合成的假錄音,而阿爾特曼呼籲對ChatGPT進行監管。到6月,ChatGPT再次迎來重磅更新,嵌入式模型成本下降75%,GPT-3.5 Turbo增加16000 token(此前為4000 token)的輸入長度。
10月,OpenAI表示出於對AI系統安全性的考慮,公司正在成立專門團隊應對前沿AI可能的“災難性風險”,包括網絡安全問題以及化學、生物以及核威脅。11月,OpenAI舉辦第一屆開發者大會,宣佈GPTs的推出。
外界的擔憂在一個又一個“突破”中,被分割成碎片,難以連貫。
隨著OpenAI的“公司政變”,人們終於跳出圍繞ChatGPT的敘事,將恐懼指向OpenAI追求的原點,通用人工智能AGI。OpenAI定義AGI是高度自主的系統,在最具經濟價值的工作中優於人類,用阿爾特曼自己更通俗的話說,就是與普通人等同或通常比人類更聰明的AI。
11月22日,路透社率先曝出消息,幾名研究人員曾致信董事會,警告“一項強大的人工智能項目”可能會威脅人類,時間就在“公司政變”之前。而這個“強大的人工智能”代號Q*,可能是OpenAI探索AGI獲得的突破性成果。
不久之後,一個發表於“公司政變”前一天的網絡貼被扒出。發帖人稱自己是給董事會寫信的人之一:“我來告訴你們發生什麼——AI在編程”。他具體描述AI做什麼,並在結尾稱“兩個月後,我們的世界會發生巨變。願上帝保佑我們,不要讓我們陷入困境”。
AI脫離人類掌控,自主自發地去做一些動作,甚至是人類不希望它做的動作,這個消息引爆互聯網,不管是大眾還是AI專傢都加入討論。網上甚至出現一個Google在線文檔,匯編關於Q*的各路信息。
很多AI領域內的人士對此不屑一顧,圖靈三巨頭之一的楊立昆(Yann LeCun)就表示,利用規劃策略取代自回歸token預測這件事,是幾乎所有頂級實驗室都有做的研究,而Q*則可能是OpenAI在該領域的嘗試,簡而言之就是勸大傢不要大驚小怪。紐約大學心理學和神經科學教授蓋裡·馬庫斯(Gary Marcus)也做類似的表態,認為即便傳聞為真,Q*想要達到對人類造成威脅的程度還為時尚早。
Q*項目本身的威力其實並不重要,重要的是人們的註意力終於回到AGI身上:AGI不僅可能脫離人類的掌控,而且AGI本身還有可能不請自來。
過去一年的熱鬧,是屬於生成式人工智能AIGC的,但AGI才是AIGC桂冠上的那顆明珠。
不僅OpenAI在創立之初就將AGI設置為目標,其他與之競爭的初創公司幾乎都將其視作燈塔。由OpenAI出走的員工創辦、OpenAI最大的競爭對手Anthropic,其公司目標是“構建可靠、可解釋和可操縱的AGI”;馬斯克於今年新鮮創辦的xAI,用他自己在演講中的話說:“首要目標是建立一個好的AGI,其首要目的是試圖理解宇宙。”
對AGI的狂熱信仰與極度恐懼幾乎總是成對出現。OpenAI“公司政變”的重要參與者、公司首席科學傢伊爾亞·蘇茨克維(Ilya Sutskever)將“感受AGI”掛在嘴邊,這句話在OpenAI流行到員工將其制作成一個表情,在內部論壇中使用。在蘇茨克維看來,“AGI的到來將是一場雪崩”,而世界上的第一個AGI至關重要,要保證第一個AGI是可控的、對人類有益的。
蘇茨克維師從“AI教父”傑弗裡·辛頓(Geoffrey Hinton),他們對AI有同樣的警惕,但做法不同。辛頓今年從Google離職,甚至表示對自己在AI領域做出的貢獻感到懊悔:“有些人相信這種東西可以變得比人類更聰明……我以為是30到50年甚至更長的時間。但是,我不再那麼想”。
蘇茨克維選擇“入世”,用技術控制技術,試圖解決AGI可能出現的風險。今年7月,蘇茨克維在OpenAI帶頭開啟“超級對齊”計劃,要用AI評估監督AI,4年內解決超級智能對齊的核心技術挑戰,保證人類對超級智能的可控。
在今年的某個時刻,蘇茨克維向當地藝術傢訂購一個木頭人像,代表“未對齊”的AGI,然後一把火燒它。
結合“在AGI方面有突破”的傳聞,再看ChatGPT推出一周年之前那場政變,更像是OpenAI主動踩下剎車。
就在“公司政變”發生前一周,阿爾特曼出席亞太經合組織工商領導人峰會,還表現出樂觀,他不僅表示相信AGI就在眼前,還表示在OpenAI的工作經歷中,他有幸目睹知識邊界四次被推進,其中最近一次發生在幾周前。他還大方表示GPT-5已經在開發中,期望從微軟及其他投資者那裡籌集更多資金。
OpenAI這場“公司政變”,更像是內部一場不同思想的碰撞。早在2017年,OpenAI就從有效利他主義(EA)者資助的Open Pjilanthropy獲得3000萬美元的資助。EA植根於功利主義,旨在最大化世界上的凈利益,理論上講,EA的理性主義慈善方法強調證據而非情感。在對AI的態度上,EA也表現出對AI威脅的高度警惕。而在那之後,2018年,OpenAI就出於生存壓力進行改革,形成現在的非營利/上限利潤結構,開始追尋外界投資。
在相繼有成員退出之後,六名前董事會成員中,Helen Toner、Tasha McCauley和Adam Dangelo都與EA有聯系,再加上火燒“未對齊”AGI的蘇茨克維,與大力推動公司商業發展的阿爾特曼、格雷格·佈洛克曼形成張力。警惕派們希望OpenAI記住自己非營利組織的核心定位,並謹慎地靠近AGI。
但“公司政變”的走向,恰恰松動這個“原點”。
最新消息,北京時間11月30日,微軟宣佈在OpenAI獲得一個無投票權的董事會席位。這意味著,微軟不會再像之前那樣陷入被動,而OpenAI會不可避免地更加受到這位最大投資者的影響。
在這次“公司政變”中,微軟雖然沒有董事會席位,沒有投票權,也事先不知道阿爾特曼將被解雇。但是在其後幾天,微軟CEO薩提亞·納德拉(Satya Nadella)表現出漂亮的危機處理能力。正是納德拉宣佈阿爾特曼和佈洛克曼將加入微軟的消息,讓這場“公司政變”完成話語權的反轉,阿爾特曼由此占據主動權。再加上給OpenAI的員工承諾跟隨阿爾特曼跳槽均有職位以及相匹配的薪酬,給員工“逼宮”舊董事會提供一招殺手鐧。
微軟的處理,無疑向OpenAI昭示出一個打破理想光環之外的現實:走上商業化道路的OpenAI,雖然從組織架構上做出種種限制,來確保“非營利組織”的基本定位不受撼動。但實際上,OpenAI最終還是被外部投資者影響走向。
創造出下一個ChatGPT,或者是創造出第一個AGI,變成全球參與的一場零和博弈。
錢和人才都在往AI的賽道裡湧入。以錢來說,智東西此前梳理,2023年上半年涉及AIGC及其落地應用的企業融資就有51筆,金額超過1000億元,單筆過億元融資18筆。與之相比,2022年上半年該賽道融資金額隻有96億元。
OpenAI停不下來,投資者不想停下來,OpenAI本身也要面臨競爭對手搶先的威脅。後者更是OpenAI兩派都需要擔憂的可能性,商業上,創造出第一個AGI的價值不可估量,倫理上,“第一個AGI”如此關鍵,豈能信任他人?
換句話說,真想讓這個剎車踩得有意義,就不能隻在OpenAI內部踩。但在全球踩剎車,是一件非OpenAI單方面可為的事情,人類的對齊並不比超級智能對齊簡單多少。
AI牌桌上的大玩傢Meta,今年也對大模型頗下功夫,發佈開源大模型Llama2,成為開源世界的核心,其首席科學傢楊立昆就曾公開表示AI不如狗,對“AI威脅論”嗤之以鼻。他曾說:“人工智能帶來厄運的預言,隻不過是一種新的蒙昧主義”。
這還隻是在矽谷的范圍內,出矽谷就更加不可控。國內百度(前不久已經更新到文心大模型4.0),其公司創始人、董事長兼CEO李彥宏在今年5月的世界智能大會上談到AI威脅論,認為“對於人類來說,最大的危險和不可持續並非創新帶來的不確定性,而是人類停止創新帶來的不可預知風險。”
更有可能持續的情況是,監管一天不叫停,零和博弈下的你追我趕就一天不停歇。馬斯克曾在今年3月底的要求“GPT停止更新至少半年”的聯名信上簽名,但要求並未實現,隨後他便自己創辦xAI。至少對外,馬斯克給出的理由正是,防止OpenAI一傢獨大。而他認為的AGI實現時間,是2029年。
ChatGPT上線一周年,世界重回原點:號稱能真正改變世界的AGI還沒出生,而人類也沒準備好接生。OpenAI重整行囊,這傢公司,甚至未來AI發展的走向,也許將在OpenAI關起的門後決定。