為什麼全人類都呼籲把通用人工智能“管起來”?


3月底,馬斯克在內的許多社會名流共同簽署一份公開信,希望包括OpenAI在內的機構至少把更高能力的AGI研發暫停6個月,從而讓人類社會達成某種基於AGI(通用人工智能)威脅的協議。這封信雖然文本不長,但是涵蓋非常廣泛的內容,內含的問題很豐富。

比如,人類該如何算這筆賬——AGI讓信息渠道充斥宣傳甚至謊言;如果是人類本來就喜歡和滿意的工作,是否應該被AI取代?而這些效率提升,是否值得我們冒著“失去對文明控制”的風險?而人類針對AGI的監管體系又應該如何搭設?

這封信最終的結果是引發矽谷規模空前的觀點撕裂的大討論。畢竟如果以GPT3.5進入人類社會視野為起點,對於AGI的發展,人類還有太多的盲點沒有解決、有太多爭議沒有達成共識。但當人類還在爭吵時,AGI已經開始在全球各地制造麻煩,虛假信息和信息泄露都像是一個讓人不安的龐大黑箱。

因此,最近一段時間以來,包括歐美日韓在內的各個信息發達國傢都開始對大模型監管的討論。而在4月11日,國傢互聯網信息辦公室也發佈《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《辦法》)。

這份《辦法》的重要意義在於,它可以算是人類社會面對AGI監管中最早的官方文件之一。

而監管視角往往是人們理解AGI中很獨特的一個角度:

不同於科學傢視角有很多參數上的復雜解釋體系、有諸多復雜的模型框架流派。監管者是社會利益的代言人,也往往是站在社會整體的角度去思考。因此監管者的思路也往往更接近大部分人樸素的直覺。但它同時又代表核心專傢群體的思考,所以它也能部分回應新事物的很多討論。

所以這份《辦法》其實可以成為很多人普通人去理解AGI的一個窗口,他可以幫助我們更好地理解和參與AGI討論。因為AGI既不是天使,也不是魔鬼。而祛魅後的AGI也將成為我們公共生活中的重要部分。

“我是誰”:生成式人工智能

如果站在矽谷的角度,AGI約等於大模型。它是通過優化的模型、結構語料庫和龐大的算力組合而成,帶有一點智慧體思想特征的計算機程序。

《文件》對這個“新物種”的劃入到“生成式人工智能”行業,即“基於算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術。”

顯然這是從AI與社會關系的角度出發。

畢竟AGI未來的技術特征會改變,模型大小會浮動,但它最終要追求與社會之間互動的內核不會變。而無論一個模型封閉開發多久,其最終目的都是要面向社會做內容輸出。這其實是過去輔助決策、檢索、安全、支付等垂直AI與AGI很核心的不同。

而從技術遠景來看,任何有廣泛用戶基礎的“生成式AI”,其大概率都會是有AGI底層能力的產品。

而對於普通人來說,AGI(通用人工智能)這個名詞確實也有點太“魅惑”。許多人將AGI與人類智慧相類比,仿佛讓人看到一張“賽博靈魂”,全然忘AGI隻是有一點智慧的苗頭,未來的發展其實還有巨大的不確定性。

所以與其說我們未來是《西部世界》似的“AGI社會”,不如說我們將迎來一個“生成式人工智能”的世界,這可能更貼近我們這一代人的技術現實。

“我屬於誰”:服務提供者

在AGI倫理討論中存在一個經典問題:大模型生成的內容,版權到底是屬於大模型公司、還是屬於辛苦寫prompt(提示詞)的用戶?

《辦法》雖然沒有明確規定版權的歸屬,但在監管上劃出責任義務,可以供更多人參考。根據《辦法》:

“利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人(以下稱‘提供者’),包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產品生成內容生產者的責任”。

如果沿用這個思路,負責人其實既不屬於大模型的研發人員、也不屬於用戶,而是屬於連接大模型與用戶之間的服務提供者。

當然,在大部分情況下AGI的開發者和API提供者應該是同一個主體。但隨著技術生態的演進,不同層次的主體可能會變得多元化。

明確中間的服務提供者承擔責任,其實也符合“生成式人工智能”的官方定義。同時,這樣的權責劃分其實也倒逼未來上遊產業鏈必須達成足夠好的內容互信。

AGI的“內容權”:需要標識

與版權問題類似的爭論是:AGI內容是否可以與人類享受的內容“同權”?

《辦法》明確對AGI內容做出限制,出現在兩個地方:

·“按照《互聯網信息服務深度合成管理規定》對生成的圖片、視頻等內容進行標識。”

·“提供者應當根據國傢網信部門和有關主管部門的要求,提供可以影響用戶信任、選擇的必要信息,包括預訓練和優化訓練數據的來源、規模、類型、質量等描述,人工標註規則,人工標註數據的規模和類型,基礎算法和技術體系等。”

關於AGI內容一直存在爭議。尤其在GPT內測的時候,系統有時候表現得像是一個村口玩手機的大爺。它有時會直接給用戶一些包含價值判斷的觀點,卻沒有足夠說服力的信息佐證。

如果《辦法》落地,AGI就會徹底告別“口說無憑”的跑火車式的內容輸出,轉而衍生出一些搜索似的工具屬性。而像過去拿著AI合成作品去美術比賽拿獎的事情,也將徹底變成一段“黑歷史”。

這其實與法律的精神相匹配,AI在內容生成上是絕對的強者,他自然也需要承擔更多的舉證義務。而多模態的內容形態可能存在巨大的內容風險,自然也需要相應的制約機制。

相反,如果讓AGI內容與人類內容完全同權,可能會對人類自己的內容生態產生難以評估的影響。

“監管生態”:阿西羅馬原則

在開頭針對OpenAI的公開信裡有一個小細節,它提出應該有一個審計的生態(ecosystem),而非體系(system)。

而公開信也提到阿西羅馬AI原則(Asilomar AI Principles),即先進AI對人類的影響會是一個文明級的,因此對它的規劃和管理所需要耗費的資源,應該是與其本身耗費的資源相匹配的。

換言之,如果生成式AI會是一個龐大的體系,那麼就不能僅僅靠某個環節、某個主體完全實現監管。

除繼續強調既有法律的監管地位外,《辦法》中也強調對生成式AI的全流程監管。

比如語料庫(“預訓練數據”)必須合法合規、數據標記必須培訓“清晰、具體、可操作的標註規則”、使用場景必須符合規范並承擔相應責任、內容本身需要被標註、用戶使用過程中要有明確的舉報反饋通道等等。

既然AGI會成為龐大的生態底座,那麼監管者其實也需要用更多元化的方式去執行監管任務。

因此盡管大模型有一定的黑箱屬性,但通過一整套組合拳,也足以倒推技術黑箱後的合規能力,從而達到“開箱”的目的。

而為進一步明確開發者責任,《辦法》中還加入這麼一條:

“對於運行中發現、用戶舉報的不符合本辦法要求的生成內容,除采取內容過濾等措施外,應在3個月內通過模型優化訓練等方式防止再次生成。”

換言之,如果監管方隻是想用“內容過濾”的手段逃避進一步的模型優化責任,在《辦法》中是違規的——AGI需要一個合規的靈魂而不隻是合規的API。

“馴火”

有很多人將AGI的發明比作“火”,人類學會生火、享受火的文明成果,但同時也要花更漫長的時間去“馴火”。

在前面提到的公開信裡,提出一個好的AGI應該滿足至少幾個標準,準確、安全、可解釋、透明、魯棒、對齊一致、值得信賴和忠誠的(accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal)。

換言之,AGI絕不能像現在這樣,成為一個玄學般煉丹爐式的黑箱。它應該對人類有更高確定性的利好。

所以公開信提出更多遠景的技術監管設想,比如建立一個龐大算力規模的、專業垂直的監管體系,達成某種底層的代碼公約等等。這些提議是否值得落地,還需要更多的行業討論。但一個相對具有確定性的事情是:

就像人類在“馴火”的過程中才更加解“火”一樣,人類社會隻有不斷與AGI互動、博弈的過程中,或許才可以更加解AGI。


相關推薦

2023-09-10

一共是10個)。對於外界的關註,馬斯克表現的很淡定,為什麼這麼說?馬斯克已經不止一次的表示,這麼做是盡己所能幫助應對人口不足的危機,崩潰的出生率是迄今為止文明面臨的最大危險,大傢應該多生孩子,在為全人類

2023-03-31

“暫停ChatGPT研發”的提議,直接刺激是對“最近幾個月人工智能實驗室陷入一場失控競賽”的擔憂。可實際上,短短幾日爭論,是往OpenAI公司和LLMs(Large Language Models,大語言模型)火上澆油,完成又一波量子級別的免費推廣。

2022-06-29

爭議。比如Omicron獨立性還不夠強,不能做疫苗。而Omicron為什麼會這麼厲害,從哪裡來.......這些都屬於科學問題。因此,我們提出一個方案:序貫免疫。所謂序貫免疫,就是你打瞭基礎免疫之後,還要接著打第二針、第三針,甚

2024-03-03

最大科技公司的閉源子公司。開發所謂的造福人類的通用人工智能,都是 TMD 扯淡,隻不過想多賺幾個子兒。OpenAI 種種變心行為,傷透馬斯克的心。字裡行間,都在哭訴自己是如何被奧特曼背叛的。當初奧特曼是怎麼主動找到自

2023-04-13

4月13日消息,周四,一群知名人工智能專傢發表政策簡報,呼籲歐洲官員在“歐盟AI法案”中擴大人工智能監管范圍。超過50位專傢和機構在這份簡報中主張,歐洲應該將通用人工智能(GPAI)納入法規監管范圍,而非局限於更狹

2023-11-18

,我將繼續相信創建安全的、能夠造福全人類的AGI(通用人工智能)的使命。”而在幾小時後,佈洛克曼又在X平臺上發一篇長文,表示董事會的決定讓奧特曼和自己都感到“震驚和悲傷”,並梳理董事會“罷免”兩人的全過程

2023-11-27

其辭,此後也沒有透露太多信息。OpenAI的目標是開發通用人工智能(AGI),並確保它“造福全人類”。AGI指的是在面對不熟悉的任務時能夠表現出與人類能力相當的系統。OpenAI采用獨特的公司結構,將非營利性董事會置於利潤上

2023-02-03

宣告流產)。然而,在過去幾周裡,共和黨人和民主黨人都呼籲官方施加更嚴格的數據收集限制,或完全禁止該應用進入美國,因此對該應用的擔憂加劇。就其本身而言,TikTok的母公司字節跳在8月提交一份計劃,詳細說明它計

2023-11-20

特斯拉CEO埃隆·馬斯克周日表示,人工智能的潛在危險是如此之大,作為目前世界上最強大的人工智能公司,OpenAI應該公開其解雇前CEO薩姆·奧特曼的原因。OpenAI上周五宣佈解雇奧特曼,在解釋原因時隻是說公司“對他繼續領導

2023-11-18

實上在“罷免”事件發生前,員工內部已經就該公司開發人工智能是否足夠安全進行過爭論。不是“政變”,而是“安全”問題根據會議記錄,至少有兩名員工詢問負責 OpenAI 最大研究突破的Ilya Sutskever,此次解雇是否構成“政

2024-02-13

閉 Beeper Mini 在 Android 上實現 iMessage 的消息。我們不清楚為什麼綠色氣泡與藍色氣泡之爭會引起政界人士的關註,而且議員和政府官員似乎並不完全解技術問題,不過這一直以來都不足為奇。

2023-11-30

”是世界上最憂傷的大象”之一。2005年開始,該組織層呼籲把馬莉送到泰國的一個對大象保護區,雖然獲得很多各界名人的支持,但最終還是沒能如願,究其原因,馬尼拉市市長曾表示,它在動物園裡生活太久,貿然送到野外

2024-02-08

學(STEM)科目,他說“同理心”和創造性技能可能會在人工智能主導的世界中蓬勃發展。這位倫敦政治經濟學院(LSE)的教授警告說,從事某些 IT 工作的工人可能會通過推進人工智能技術而播下“自我毀滅的種子”,而這些人

2023-04-04

Meta首席人工智能科學傢楊立昆周一在社交平臺上發問,側面回應馬斯克等人聯盟呼籲暫停開發更強大的人工智能,將這比做飛機工程師害怕飛行。楊立昆問道:“人們害怕飛行嗎?不!不是因為飛機不會墜毀,而是因為工程師