人大教授劉永謀:暫停ChatGPT研發不是應對風險的好辦法


最近,包括埃隆.馬斯克在內的千名專傢聯合簽署公開信,呼籲暫停訓練GPT-4後續AI模型至少6個月。消息一出,引爆全球網絡和媒體,很快引來吳恩達等“AI大牛”的反對。如何看待雙方的爭論?我們一層層分析問題。

先說競爭失控問題。

據公開信所稱,提出“暫停ChatGPT研發”的提議,直接刺激是對“最近幾個月人工智能實驗室陷入一場失控競賽”的擔憂。可實際上,短短幾日爭論,是往OpenAI公司和LLMs(Large Language Models,大語言模型)火上澆油,完成又一波量子級別的免費推廣。

這波“操作”的宣傳效應,繼續擴大該領域領先公司的領先優勢。如此聲譽競爭是不是失控的商業競爭呢?

將目光拉到國內,競爭問題會看得更清楚。GPT研發競爭不限於幾個美國公司之間,更是關涉各國尤其是大國之間的AI科研競爭。在LLMs領域,美國本來就領先一大截,其競爭對手可能暫停ChatGPT研發嗎?馬斯克一聲呼籲,OpenAI公司真的會暫停,而不是轉向秘密研發嗎?

公開信呼籲政府出面,實施暫停研發的措施。新科技領域問題風險和倫理問題層出不窮,政府全部都要大包大攬嗎?而且依據何在,又如何能合法合規地實施呢?如果強力暫停措施在一個應對、治理和管控能力有著顯著優勢的國傢奏效,而在其他國傢完全不頂用,結果是不是反而擴大後者對前者的LLMs競爭優勢呢?

再說LLMs風險問題。

AI風險早就被學界指出,被各國政府所重視,近年來更是成為全社會的關註焦點。近十年來,從物聯網到大數據、雲計算、區塊鏈、元宇宙、ChatGPT,一波波的AI熱潮中,從來沒有缺少關註風險的呼聲。

本人專業關註新科技社會沖擊問題,花大量精力提醒大傢註意AI可能導致的技術風險。比如,曾寫過專著《物聯網與泛在社會的來臨》《技術有病我沒藥》《元宇宙陷阱》《科技與社會十四講》,面向非專業人士提示ICT(信息與通訊技術)的社會沖擊和技術風險。

可以說,警惕AI發展,防止AI失控,正在成為全球范圍內科技領域的“政治正確”。在此氛圍之下,公開宣稱“AI無禁區”的聲音被極大地抑制。對此,作為技術控制的選擇論者,我完全贊同。

然而,公開信指向的不是泛泛的AI風險,而是具體的、當下的LLMs風險。那麼,就目前的發展態勢而言,ChatGPT究竟存在什麼嚴重的風險,必須以暫停至少六個月的方式加以應對呢?

有人說,ChatGPT是超級AI出現的征兆,如果現在不停止(註意:不僅是暫停),“潘多拉的魔盒”一旦打開,人類很快會被超級AI統治甚至滅絕。這種幻想色彩濃厚的念頭,很難讓人予以嚴肅的對待。尤其是,很多專業人員不承認ChatGPT是通用AI,更別說它是超級AI的雛形。

超級AI可能是個問題,但在嚴防人類自我滅絕的問題上,很多風險如核大戰、氣候變化、致命病毒傳播、生物科技濫用等要排在超級AI之前。我們是不是先把它們都停止?就算停止不,暫停一下也行,起碼可以呼籲暫停。對不對?

仔細想一想,LLMs對中國社會最重要的沖擊在於:1)失業問題:ChatGPT未來會威脅很多人的“飯碗”,進一步加劇“AI失業問題”,即AI的推廣導致人們失業。2)教育問題:ChatGPT對應試教育造成巨大挑戰,要求中國的教育體制適應AI輔助工作和生活的未來社會環境。3)信息安全問題:ChatGPT很快生成海量的AIGC(計算機生成內容),其中不乏錯誤的、虛假的、有害的內容,威脅主流價值觀、意識形態和健康的輿論思想環境。

如何應對ChatGPT的沖擊?這是我們最後要討論的問題。

暫停ChatGPT肯定不是應對風險的好辦法。為什麼?第一,暫停沒有道理。有人說,ChatGPT風險應對措施沒有想清楚,所以先暫停。錯!不是沒想清楚,而是沒有落實到位。第二,暫停是不可能真正實現的,肯定會有AI公司違反禁令,結果是出現不公平的競爭。第三,暫停解決不問題。就算所有AI公司都真的暫停ChatGPT科研,風險問題就解決嗎?沒有!除非徹底停止和取締LLMs,否則風險不會消失。重新啟動之時,仍然得直面風險。

如今,新科技是人類生存和發展最重要的不可須臾離開的工具。ChatGPT對社會生產力的推動作用已經昭然若揭,我們為什麼要因噎廢食,為什麼不能控制地利用呢?20世紀就有人提出來,彼時的科技人類已經完全夠用,繼續發展會導致很多新問題,應該讓科技靜止下來,科學傢不要再搞研究。此類極端非理性想法,從來沒有被社會嚴肅對待過。

顯然,上述ChatGPT導致的三大沖擊都不是什麼新問題,早在ChatGPT爆火之間就已經被學界和政府所關註、所研究,各種應對建議早已被提出來。比如AI失業問題,各種討論汗牛充棟。具體的應對措施不一而足,如學生的職業規劃、勞動者AI素養提升、失業人員社會保障和再就業、產業結構升級改造等。長遠的戰略規劃亦蔚為大觀,如制度性地減少勞動者工作時間(有些地方已經在嘗試一周工作4天),征收AI稅(AI是全人類智力結晶,向AI公司征收重稅全民共享),靈活退休制度(勞動者一輩子可以短暫退休幾次)等。因此,現在的問題是根據國情落實AI治理措施,而不是暫停ChatGPT研發。

總之,暫停ChatGPT研發的想法簡單粗暴,作用不大,也實現不,純屬無效的“嘴炮”。

文 | 劉永謀(中國人民大學哲學院教授、國傢發展與戰略研究院研究員)


相關推薦

2023-12-18

快科技12月18日消息,最近張雪峰稱文科都是服務業就是舔”引發網友熱議。對此,張雪峰發微博道歉:做服務業沒有不好,可是有的人心裡過不去這道坎,我能過去,我就做服務業,你過不去,你就不適合做服務業。我是提醒

2024-02-13

看這麼多Goody-2的例子,這種語氣是不是有點似曾相識?ChatGPT等大模型在應對存在安全風險的問題時,也是這麼彬彬有禮,但拒絕回答。這便是Goody-2為何而來。其幕後創作者之一邁克·拉切爾(Mike Lacher)表示,就是想向大傢展

2023-03-30

時間,以制定應對的最佳方式,並解如何與其作對抗。”ChatGPT崛起凸顯出行動過快存在潛在危險去年11月,當OpenAI的聊天機器人ChatGPT上市公測時,引起巨大轟動。可以理解的是,人們開始推廣ChatGPT的功能,而它對社會的破壞性

2023-03-29

這封信的到來,可謂是千呼萬喚始出來。從去年11月底,ChatGPT仿佛叩響發令槍,全世界的AI機構都在瘋狂沖刺,卷到紅眼。而“始作俑者”的OpenAI,腳步也絲毫沒有放慢,聯合著金主爸爸微軟,它隔一陣就給我們來一個暴擊。先

2023-11-03

的11月,當微軟支持的人工智能初創公司OpenAI向公眾開放ChatGPT聊天機器人應用時,人們開始擔心人工智能可能對經濟和社會產生的巨大影響。英國在峰會上宣佈將增加對兩臺超級計算機的資助,以支持先進人工智能模型安全的研

2023-04-07

機器現在可以和我們對話,甚至假裝成人類。而且,自從ChatGPT發佈以來,大傢發現不那麼謹慎守規矩的玩傢會有競爭優勢,如果是這樣的話,那麼通過降低謹慎和道德監督的水平,就可以更容易出頭。面對更加激烈的商業競爭

2023-04-14

(ElonMusk)曾放言,人工智能(AI)比核武器還要危險。為降低ChatGPT的危險性,OpenAI建立一支“紅隊”。“紅隊”是AI領域的一個術語,指的是進行滲透測試的攻擊方。“紅隊”發起攻擊,AI進行防守,通過對抗測試來找出AI的不足,然

2023-03-03

3月2日,OpenAI正式開放ChatGPT的API接口,開發人員可以將ChatGPT模型集成到他們的應用程序和產品中。ChatGPTAPI調用的價格以Token(數字代幣)計算,0.002美元可以獲得1000Token,1000個Token約等750個單詞。這個價格比ChatGPT剛剛開放測試

2023-03-20

sta Håberg是聖奧拉夫醫院的醫生和挪威科技大學(NTNU)的教授,同時也是NIPH/FHI的研究人員。她說,調查的結果包含著驚喜。"到底是什麼導致癡呆癥,這是一個謎。這項調查表明,結婚和較低的癡呆癥風險有關聯,但我們不

2023-03-29

推理能力,同時承認“AI殺死人類”有一定可能性。那麼ChatGPT是如何看待公開信中AI對人類社會的影響?華爾街見聞專門詢問ChatGPT 3.5,其表示隨著人工智能技術的不斷發展和普及,人工智能可能對社會和人類造成的影響將越來

2023-04-03

似人類的對話、作曲並總結冗長的文件。自從GPT-4的前身ChatGPT於去年發佈以來,競爭對手也競相推出類似產品。公開信中說,具有“人類競爭智能”的人工智能系統對人類具有深遠的風險,信中引用專傢的12項的研究結果,這些

2023-05-17

。比如傢住十幾層的高樓,一旦物品掉下去,想要撿拾卻不是一件易事。據指尖新聞,近日,浙江一網友的襪子掉在窗外,正好掉在窗戶臺階上,讓他犯難。後來,這位網友想一個兩全其美的辦法,釣著小龍蝦將襪子取回,網友

2023-06-11

這麼說。AI有這種能力嗎?還沒有。但是,研究人員正在將ChatGPT這樣的聊天機器人轉變為能夠根據他們生成的文本采取行動的系統。一個名為AutoGPT的項目就是最典型的例子。該項目的想法是給AI系統設定目標,比如“創辦一傢公

2023-04-18

歐盟立法者希望在法案中加入針對ChatGPT等高級人工智能工具的條款。當地時間周一,據媒體報道,負責起草《人工智能法案》的歐洲議會議員們計劃於當日發表一封公開信。他們表示,近幾個月來,隨著人工智能飛速發展,有