《時代》總結英國人工智能安全峰會:取得有限但有意義的進展


本周三和周四,來自全球27個國傢政府的代表以及頂級人工智能公司的負責人齊聚倫敦附近的佈萊切利公園,參加全球首次人工智能安全峰會。與會者包括美國和中國政府代表、埃隆-馬斯克(ElonMusk)和OpenAI首席執行官山姆-奧特曼(SamAltman)。

這場由瑞希-蘇納克(Rishi Sunak)領導的英國政府主辦的高規格活動,是繼近一年前推出 ChatGPT 之後,全球有關人工智能安全的討論激烈升級的一年。至少對許多用戶來說,該聊天機器人首次展示最新一代人工智能系統強大的綜合能力。它的病毒式傳播為以前的一個小眾學派註入活力,這個學派認為人工智能遲早會對人類的生存構成威脅,並促使世界各地的政策制定者權衡是否以及如何監管這項技術。這些討論是在這樣的警告中進行的:不僅當今的人工智能工具已經帶來多方面的危險--尤其是對邊緣化群體而言,而且下一代系統可能比現在強大十倍或百倍,更不用說更加危險。

英國政府之所以選擇佈萊切利公園作為峰會的舉辦地,是因為它的象征意義:這裡是現代計算的發源地之一;在這裡設計的用於破譯納粹英格瑪密碼的機器構成早期可編程計算機的藍圖。英國科技大臣米歇爾-多納蘭(Michelle Donelan)在周三的峰會開幕式上表示,她希望與會代表能夠為類似規模的成就做出貢獻,"突破實際可能的界限"。

來自世界各地的官員並沒有試圖在這裡就一套共同的、可執行的技術準則達成協議。但蘇納克在周四宣佈,人工智能公司已在峰會上同意讓各國政府盡早使用他們的模型來進行安全評估。他還宣佈,圖靈獎獲得者、計算機科學傢本吉奧(Yoshua Bengio)已同意擔任一個機構的主席,該機構將努力在一份報告中就前沿人工智能系統的風險和能力達成科學共識。

本吉奧在一份聲明中說:"我很高興能與來自世界各地的同事合作,就這一極其重要的問題提出最新的證據,從而為管理人工智能安全所急需的國際協調提供支持。"

蘇納克在峰會上贏下頭條新聞點位 - 人工智能實驗室將讓政府盡早使用他們的系統,盡管這一決定在細節上並不突出。蘇納克在 6 月份已經宣佈,三傢領先的前沿人工智能公司(OpenAI、Google DeepMind 和 Anthropic)已經同意讓英國政府出於安全目的"提前或優先訪問"他們的系統。蘇納克沒有詳細說明周四達成的協議與這一現有承諾有何不同,他也沒有對政府是否會獲得前沿模型的源代碼或所謂的"權重"發表評論,或者僅僅是獲得使用 API 接口與前沿模型進行交互的能力。(蘇納克辦公室沒有立即回復置評請求)。

蘇納克還宣佈,英國的人工智能前沿工作組將發展成為一個負責進行安全評估的常設機構:英國人工智能安全研究所(U.K. AI Safety Institute)。

盡管進展有限,但與會代表對高級別討論表示歡迎,認為這是國際合作監管人工智能技術邁出的關鍵性第一步--他們承認,雖然在許多領域達成共識,但仍存在一些關鍵分歧。

周三,英國政府宣佈關於人工智能的"佈萊切利宣言",包括美國、英國、中國、印度和歐盟在內的28個國傢簽署該宣言。宣言稱,人工智能既有短期風險,也有長期風險,申明強大的人工智能系統的創造者有責任確保這些系統的安全,並承諾在識別和降低風險方面開展國際合作。

英國政府作為此次峰會的組織者,一方面要向科技公司傳達其對人工智能風險的嚴肅態度,另一方面又要向科技公司發出信號,表明其對商業持開放態度,在這兩者之間,英國政府走的是一條細水長流的路線。多納蘭在峰會前夕於Google DeepMind 總部舉行的招待會上對科技界知名人士說:"對我來說,我們面臨的最大風險其實是錯失人工智能真正帶來的所有這些令人難以置信的機遇。如果我們真的讓人們過於恐懼,或者因為沒有把握住這些風險而退縮,那麼我們就不會看到NHS(國民健康服務)采用人工智能,我們就不會看到我們的交通網絡采用人工智能,我們就無法利用人工智能應對氣候變化,或支持發展中國傢解決糧食不平等等問題。這將是我們所能想象的最大悲劇。"

另一方面,美國本周發佈的幾項聲明有可能使英國在人工智能安全方面的全球領導地位黯然失色。美國副總統卡馬拉-哈裡斯(Kamala Harris)周三在倫敦發表演講時宣佈美國的一系列行動,其中包括成立美國人工智能安全研究所。哈裡斯表示,該機構將為人工智能系統的風險評估制定指導方針,並就人工智能生成材料的水印和打擊算法歧視等問題為監管機構制定指南。哈裡斯是在美國總統喬-拜登(Joe Biden)周一簽署行政命令,要求人工智能公司在訓練具有潛在危險的模型時通知聯邦政府,並在公開安全測試結果之前與聯邦政府分享測試結果之後宣佈這一消息的。

英國外交大臣詹姆斯-克萊弗利(James Cleverley)周四淡化有關美國的聲明給英國蒙上陰影的說法。他對《時代》周刊說:"這不是囤積,而是分享。我們希望每個人都參與進來。這不是排他性的,而是包容性的。"

在佈萊切利公園,大批警察在戰時密碼破譯綜合體周圍搭建的安全臨時警戒線上巡邏。周三,在正門外,來自壓力團體"暫停人工智能"(Pause AI)的一小撮抗議者高舉橫幅和標語牌。該組織主張暫時停止訓練比 OpenAI 的 GPT-4 更強大的人工智能系統,GPT-4 是 ChatGPT 的後繼者,也是世界上最強大的公開大型語言模型。抗議者之一吉迪恩-富特曼(Gideon Futerman)告訴《時代》周刊:"民意調查越來越顯示,放慢人工智能的發展速度受到公眾的歡迎,就像我們今天在抗議時收到的許多來自老老少少公眾的支持信息一樣。暫停不僅是必要的,也是可以實現的"。

在會場內,主要的討論都是閉門進行的,但也有一些業界人士出來向媒體發表講話。Google DeepMind聯合創始人、現任初創公司Inflection AI首席執行官穆斯塔法-蘇萊曼(Mustafa Suleyman)在一次新聞發佈會上表示,他不同意那些呼籲暫停訓練下一代人工智能系統的人的觀點,但他表示,在不久的將來,業界可能需要考慮將其作為一種選擇。他說:"我不排除這種可能性,我認為在未來五年左右的某個時間點,我們必須非常認真地考慮這個問題。我不認為今天有任何證據表明,GPT-4 這種規模的前沿模型......會帶來任何重大的災難性危害,更不用說任何生存危害。客觀地說,GPT-4 對世界上的人們有著不可思議的價值。但是,在我們創建更大 10 倍、100 倍、1000 倍的模型時,這是一個非常明智的問題,而這將在未來三四年內發生。"

今年3月,一封呼籲暫停訓練大型人工智能系統6個月的公開信被許多業內人士認為無法執行,但一些代表表示,峰會正在采取措施,建立一個可以執行這一決定的國際框架。人工智能安全公司"猜想"(Conjecture)的首席執行官康納-萊希(Connor Leahy)周三告訴《時代》周刊,他對峰會的討論水平和幾乎一致的共識留下深刻印象。他說:"總的來說,我認為英國在這裡做一些非常不起的事情,"他稱贊來自政府和行業的高級別與會者的數量。"這不是一個在實踐中制定政策的地方,而是一個奠定基礎的地方"。

民間社會的部分成員受邀參加與政策制定者和技術專傢的閉門會議,但其中一些人對他們所說的代表人數不足感到不滿。非營利組織 REAL ML 的代表、印度班加羅爾的維杜希-馬爾達(Vidushi Marda)說:"如果這真是一場全球對話,為什麼[出席]的大多是美國和英國的民間社會?對我們來說,大多數重要決定都是不透明的,盡管我們就在會議室裡。"

還有人指責峰會反映業界的談話要點。研究機構 AI Now Institute 的執行董事安巴-卡克(Amba Kak)說:"業界完全掌握這場對話,在很多方面,這次峰會也反映這一點。所有這一切的背景是,我們正看到權力進一步向科技行業集中,而在這個行業中,隻有少數幾個參與者。如果我們讓行業為人工智能政策定調,光說我們希望監管是不夠的--因為我們將看到進一步鞏固行業利益的監管。"

卡克說,峰會的范圍似乎在進程後期發生轉變,納入對近期風險的討論,她對此表示歡迎。她說:"早期的信號都表明,峰會幾乎完全集中在展望未來的危害類型上。如果說從《佈萊切利宣言》中得到什麼啟示的話,那就是有必要處理近期問題,而且這與長期問題並沒有脫節。"

雖然此次峰會可能在一定程度上成功地彌合研究人員對近期和長期風險發出警告的分歧,但在許多行業與會者中,人工智能研究的開源和閉源方法之間的意見分歧也是顯而易見的。主張對人工智能研究進行更多限制的人說,高級人工智能的危險太大,強大模型的源代碼不能隨意發佈。

開源社區不同意這種觀點,他們認為,以盈利為目的的公司壟斷人工智能研究很可能會導致不良後果,並認為開源模型可以加速安全研究。"開源的爭論感覺仍然很有挑戰性,我不認為這次峰會由於涉及一系列議題,真的能夠提供足夠的空間來深入細節,以尋求更大的共識,"與會代表、智庫長期復原力中心(Centre for Long-Term Resilience)人工智能政策負責人傑斯-惠特爾斯通(Jess Whittlestone)告訴《時代》周刊。"在我參與的討論中,有相當多的人同意,我們需要超越開放/閉源的二元辯論,研究更細致入微的解決方案,但對於這需要是什麼樣子以及什麼應該被優先考慮,仍然存在不同的觀點。"

在佈萊切利公園(Bletchley Park)聚會的象征意義不言而喻,在這裡,戰時的偉人們齊聚一堂,在面臨生存威脅時保護生命和自由。但是,如果這次峰會未能取得預期成果,那麼另一種歷史對比可能是更好的比喻。戰後,位於佈萊切利的著名密碼破譯機構演變成英國的情報機構--GCHQ,該機構與美國國傢安全局合作,在全球范圍內不分青紅皂白地實施大規模監控計劃--利用技術不是為保護公民,而是系統地侵犯他們的權利。

Signal公司總裁梅雷迪斯-惠特克(Meredith Whittaker)告訴《時代》周刊:"佈萊切利的神話被歷屆政府用來為監控和加強技術控制辯護,暗示這些努力與英國在第二次世界大戰期間的反法西斯技術努力同出一源。因此,現任政府試圖接近美國強大的人工智能產業,利用並延伸這一神話,希望過去的光輝能夠掩蓋現在的現實,也就不足為奇。"


相關推薦

2023-11-03

全球在人工智能風險監管方面的步伐在加快。當地時間11月1日,英國人工智能安全峰會(ArtificialIntelligenceSafetySummit,AISS)首日,英國政府在位於英格蘭南部的佈萊切利莊園宣佈,多個在人工智能領域領先的國傢和地區,包括美

2023-11-03

當地時間11月1日,英國主辦的首屆全球人工智能(AI)安全峰會在英國佈萊切利公園拉開帷幕。峰會第一天,包括中國、美國、英國在內的28個國傢及歐盟共同簽署《佈萊切利宣言》,承諾以安全、以人為本、值得信賴和負責任

2023-03-18

和低錯誤率仍然難以捉摸。在這方面的改進是量子計算和人工智能的共同主要目標,OpenAI本周表示,其新的GPT-4在準確性方面已經比前身高40%。盡管量子計算和普通大眾相去甚遠,遠遠不如AI智能機器人那樣能夠吸引大傢的目光

2023-04-13

自從2022年底OpenAI發佈ChatGPT之後,一陣人工智能的颶風,席卷全球。這陣風之所以猛烈,一是因為ChatGPT在技術方面的突破足夠顛覆,二是它在應用端實現普通人可體驗,這意味著能夠對其強大能力有直接的感知。於是,我們很快

2024-03-06

最有價值的人工智能初創公司OpenAI周三表示,他們打算駁回埃隆-馬斯克(ElonMusk)在最近一起訴訟中提出的所有指控,並表示這位億萬富翁企業傢雖然參與公司的共同創建,但對公司的發展和成功並沒有產生多大影響。在一篇由

2023-11-04

現在官方握手或全傢福照片中,但周四確實派員出席英國人工智能安全峰會的部長級高層會議。而中國代表後來的缺席引發質疑,因為中國參加為期兩天的人工智能"前沿"安全峰會的第一天會議,而東道主英

2023-11-08

斯、霍利和庫恩斯提出的兩黨法案《保護選舉免受欺騙性人工智能法案》。這項重要的立法禁止使用人工智能生成實質上具有欺騙性的內容,在政治廣告中對聯邦候選人進行虛假描述,以影響聯邦選舉,但戲仿、諷刺和新聞編輯

2024-03-08

移動至少比氣象氣球更可預測。空中客車公司於 2022 年從英國國防和航天部下屬的 QinetiQ 公司獲得固定翼無人機的技術。Zephyrs 從環形跑道上起飛,無人機到達平流層的高度超過 6 萬英尺。這使它們遠離商用飛機,也遠離可能阻

2024-04-22

LinusTorvalds對硬件錯誤、“邪惡的”開發者和搞笑的人工智能炒作發表自己的看法。幾天前,由Linux基金會主辦的北美開源峰會(OpenSourceSummitNorthAmerica)在華盛頓西雅圖閉幕。會上,Linux 之父 Linus Torvalds 與其好友、Verizon 開源項

2023-10-27

英國首相蘇納克(RishiSunak)宣佈計劃成立首個人工智能安全研究所。今天早些時候,微軟、Google、OpenAI和Anthropic宣佈為前沿模型論壇提供1000萬美元的基金,以確保安全、負責任地開發生成式人工智能。蘇納克於2023年5月會見人

2023-12-07

12月7日消息,美國當地時間周三,谷歌發佈其新一代人工智能模型Gemini。Gemini反映谷歌內部多年來在首席執行官桑達爾·皮查伊(SundarPichai)的監督和推動下所做的努力。此前負責Chrome和安卓業務的皮查伊是出名的產品迷。2016年

2023-11-02

英國佈萊切利公園正在召開具有裡程碑意義的人工智能峰會,歐盟高官和人工智能領域的專傢將聚集在一起,討論如何制定人工智能行業的安全標準。英國前副首相、Meta現任全球事務總裁NickClegg在峰會開幕前提前表明態度,呼

2023-02-07

便世界能夠開始解即將發生的事情。”·奧特曼說,通用人工智能是驅動他所有行動的推力,ChatGPT不會取代搜索,但有一天某個人工智能系統可以。“如果AGI真正完全實現,我可以想象它打破資本主義的所有這些方式。”隨著人

2023-01-13

便宜、更容易開展業務的地方,而不是簡單地依靠政治或安全因素來吸引企業。官僚主義障礙盡管莫迪最近的財政激勵措施為蘋果在印度設廠提供一條經濟高效的途徑,但是目前仍隻有一小部分iPhone是在印度生產。印度制造取得