AI前哨|超級智能該如何監管?全球最紅AI公司OpenAI這麼說


鳳凰網科技訊 《AI前哨》北京時間5月23日消息,ChatGPT開發商OpenAI CEO薩姆阿爾特曼(Sam Altman)上周在美國國會作證時坦言,人工智能(AI)會對世界造成重大傷害,並呼籲加強AI監管。

美國當地時間周一,阿爾特曼聯合OpenAI總裁格雷格佈羅克曼(Greg Brockman)、首席科學傢伊爾亞蘇茨克維(Ilya Sutskever)在OpenAI官方博客上發佈《超級智能的治理》的文章,詳細闡述他們的監管提議。

以下是文章全文:

鑒於我們現在所看到的情況,可以想象的是,未來十年內,AI系統將在大多數領域超過專傢的技能水平,並能夠開展與當今最大公司之一一樣多的生產活動。

就潛在的優勢和劣勢而言,超級智能將比人類過去不得不與之抗衡的其他技術更強大。我們可以擁有一個明顯繁榮得多的未來,但我們必須控制風險才能實現這一目標。鑒於我們面臨潛在生存風險,我們不能隻是被動應對。核能是一個常用的歷史例子,它具有這種特性。合成生物學是另一個例子。

我們也必須減輕當今AI技術的風險,但超級智能將需要特殊的對待和協調。

三個理念

對於我們來說,有許多重要理念能夠幫助我們更好地把握這一發展方向。在這裡,我們列出我們對其中三個理念的初步想法。

首先,我們需要在領先的開發項目之間進行一定程度的協調,以確保超級智能的發展以一種既能維護安全又能幫助這些系統與社會順利整合的方式進行。有很多方法可以實現這一點:世界各地的主要政府可以建立一個項目,讓許多當前努力成為其中的一部分,或者我們可以集體商定(在一個新組織的支持下,就像下面建議的那樣),將前沿AI能力的增長速度限制在每年一定比例上。

當然,個別公司應該被要求以極高負責任的標準行事。

其次,我們很可能最終需要像國際原子能機構(IAEA)這樣的機構來開展超級智能工作。任何超過一定能力(或算力等資源)閾值的工作都需要服從於國際權威機構,該機構可以檢查系統,要求審計,測試以確定項目是否符合安全標準,對部署程度和安全級別進行限制等等。跟蹤計算和能源使用可能會有很長的路要走,但它給我們一些希望,相信這個想法實際上是可以執行的。作為第一步,企業可以自願同意開始實施該機構某一天可能要求的要素;第二步,個別國傢可以實施。重要的是,這樣一個機構應該把重點放在降低生存風險上,而不是那些留給各個國傢的問題上,比如定義AI應該被允許說什麼。

第三,我們需要讓超級智能安全的技術能力。這是一個開放的研究問題,我們和其他人都投入大量的精力。

一般AI不應受監管

在這個范圍之外,我們認為允許企業和開源項目開發低於重大能力閾值的模型是很重要的,它不需要像我們在這裡描述的那種監管(包括像許可證或審計這樣繁重的機制)。

如今的系統在世界上創造巨大的價值,雖然它們確實存在風險,但這些風險的程度與其他互聯網技術和社會上可能采取的方法相當。

相比之下,我們所關註的是超級智能系統,它擁有比目前所創造的任何技術都強大的能力。我們應該小心,不要把類似的標準應用到遠遠低於這個標準的技術上,從而淡化對超級智能的關註。

公眾意見及潛力

但是,對於最強大系統的治理,以及關於其部署的決策,必須有強有力的公眾監督。我們相信,世界各地的人們應該民主地決定AI系統的界限和默認設置。我們還不知道如何設計這樣一個機制,但我們計劃對這一發展進行試驗。我們仍然認為,在這些廣泛的界限內,個人用戶應該對他們所使用AI的行為有很大的控制權。

考慮到這些風險和困難,我們有必要考慮一下為什麼要開發這項技術。

在OpenAI,我們有兩個基本原因。首先,我們相信它會帶來一個比我們今天所能想象的更好的世界(我們已經在教育、創造性工作和個人生產力等領域看到早期的例子)。世界面臨著許多問題,我們需要更多的幫助來解決這些問題。這項技術可以改善我們的社會,每個人使用這些新工具的創造能力肯定會讓我們大吃一驚。經濟增長和生活質量的提高將是驚人的。

其次,我們相信,阻止超級智能的創造具有令人難以置信的風險,也是困難的。因為好處是如此巨大,構建它的成本每年都在下降,構建它的參與者的數量正在迅速增加,這是我們所走的技術道路的固有組成部分。阻止它的發展,需要類似全球監督制度這樣的體制,但即使如此也不能保證成功。因此,我們必須確保正確處理這一問題。鳳凰網科技《AI前哨》對此將持續關註。


相關推薦

2023-06-13

鳳凰網科技訊 《AI前哨》北京時間6月13日消息,面對來勢洶洶的ChatGPT,谷歌CEO桑達爾皮查伊(Sundar Pichai)周一在接受采訪時稱,在某些人工智能(AI)領域,公司確實落後。但是,他並不急於快速推進公司的前進步伐,因為謹慎很關

2023-06-16

鳳凰網科技訊 《AI前哨》北京時間6月15日消息,ChatGPT的火爆出圈離不開英偉達的人工智能(AI)芯片,而英偉達的成功則離不開黃仁勛對AI的豪賭。早在十多年前,黃仁勛就賭定英偉達的計算機芯片可以成為AI的“大腦”。當黃仁勛

2023-06-11

AI能毀滅人類?鳳凰網科技訊 《AI前哨》北京時間6月11日消息,最近一段時間,一些研究人員和行業領袖不斷警告稱,人工智能(AI)可能會對人類的生存構成威脅。但是,對於AI究竟如何摧毀人類,他們並未詳談。上個月,AI領域

2024-03-07

為未來新模型的功能將會更強大,它們將能為人們做一些超級有用的事情,人們會更願意使用它們。在一個模型上投入的資源越多,它的性能就越好。”他稱,總之,不管如何波動,在接下來的幾十年內,我們將需要比現在更多

2023-05-27

鳳凰網科技訊《AI前哨》北京時間5月27日消息,傳媒巨頭新聞集團CEO羅伯特湯姆森(Robert Thomson)本周警告稱,人工智能(AI)的崛起可能會對新聞業造成“致命性破壞”。這一表態呼應之前的一項可怕預測,即人類可能在各種知識型

2023-06-17

鳳凰網科技訊《AI前哨》北京時間6月17日消息,特斯拉CEO埃隆馬斯克(Elon Musk)周五出席在巴黎舉行的VivaTech科技大會,聊到人工智能(AI)、自動駕駛、腦機接口人體試驗、推特等多個話題。AI不能放任不管馬斯克在臺上接受廣告

2023-03-17

他們放棄一切並與另一傢公司展開合作。發現五:雇傭“超級預測員”博主的下一個發現,是來自論文第57中的一段話。這段話大致的意思就是,OpenAI雇傭預測專傢,來預測當他們部署GPT-4之後會帶來怎樣的風險。然後博主順藤

2023-07-19

鳳凰網科技訊《AI前哨》北京時間7月19日消息,軟件巨頭微軟周二再次攪動人工智能(AI)市場,該公司公佈的Microsoft365(前Office365) AI助手定價“昂貴”,但受到資本市場的歡迎,市值一度大漲1540億美元(約合1.1萬億元人民幣)。同

2023-07-15

鳳凰網科技訊 《AI前哨》北京時間7月15日消息,特斯拉CEO埃隆馬斯克(Elon Musk)周五在推特上舉辦音頻直播活動,闡述他將如何開發心目中的理想人工智能(AI)。他計劃發揮旗下企業帝國的優勢,利用推特的數據訓練AI,開發AI所需

2023-07-27

鳳凰網科技訊 《AI前哨》北京時間7月26日消息,谷歌、OpenAI、微軟以及人工智能(AI)創業公司Anthropic周三宣佈,他們將成立一個名為“前沿模型論壇”(Frontier Model Forum)的行業組織,確保“前沿AI模型”的開發是安全的,負責任的

2023-11-03

學傢Ilya Sutskever在采訪時表示, ChatGPT可能是有意識的,超級AI將會成為一種潛在風險。而OpenAI CEO Sam Altman最近在劍橋參加活動時,甚至遭到激進分子的強烈抵制,在大禮堂裡當面被砸場子。活動開始前,就有少數抗議者聚集在外

2023-05-17

有趣的一幕發生。今天上午,在美國國會針對人工智能監管的聽證會開始時,參議員理查德·佈盧門撒爾(RichardBlumenthal)“講”一段宣言。他的聲音在大廳裡響起:“我們經常看到技術超過監管時會發生什麼。會加深對個人數

2023-07-04

鳳凰網科技訊 《AI前哨》北京時間7月3日消息,年前,當軟銀集團創始人孫正義(Masayoshi Son)推出規模達1000億美元的世界最大科技投資基金時,他曾信誓旦旦地表示,軟銀隻會根據一項策略進行投資,那就是人工智能(AI)。接著在20

2023-11-01

年的創業史、實現AGI的可能性,還介紹OpenAI未來在管控“超級智能”方面的計劃,他希望讓未來的超級智能,可以像父母看待孩子那樣看待人類。以下為正文:伊爾亞·蘇茨克維(Ilya Sutskever)低頭沉思。他雙臂張開,手指放在