AI會殺死我們所有人嗎?紐約大學Gary Marcus:這不是當前需要考慮的問題


“超級智能可能會即將到來,也可能不會。但無論如何,都有很多值得擔心的事情。”近日,人工智能領域內的“叛逆者”、紐約大學心理學和神經科學榮譽教授GaryMarcus發文稱,“我們需要停止擔心機器人接管世界,而是更多地考慮那些壞人可能會利用LLMs做什麼,以及我們可以做什麼來阻止他們。”


此前,Marcus 與馬斯克等上千人聯名呼籲 “所有人工智能實驗室應立即暫停訓練比 GPT-4 更強大的大模型,這一時間至少為 6 個月”。

在 Marcus 看來,AI風險 ≠ AGI風險,盡管很多人將人工智能的風險等同於超級智能或 AGI 的風險,但並非隻有超級智能才能造成嚴重的問題。如 Bing 和 GPT-4 等不可靠但被廣泛部署的人工智能,也會對現實世界造成不可忽視的風險。

學術頭條在不改變原文大意的情況下,對文章做簡單的編輯。


人工智能會殺死我們所有人嗎?我不知道,你也不知道。

但 Geoff Hinton(深度學習三巨頭之一)已經開始擔心,我也是。上周,我通過小道消息(the grapevine)聽說 Hinton 的擔憂,他也已公開承認。

Hinton 於近日接受 CBS News 的采訪,當被問及人工智能是否可能“消滅人類”時,他表示,“這並非不可想象(It's not inconceivable)。我隻想說這些。”

在放大他的擔憂後,我提出一個思想實驗:

編碼速度更快、擁有有趣的聊天機器人,值得 1% 的風險來實現嗎?


很快,數以百計的人,甚至馬斯克也加入進來。

Hinton、馬斯克和我,甚至很少能在同一件事情上達成部分意見一致。馬斯克和我還在本周早些時候簽署一封來自生命未來研究所(FLI)的公開信。

公開信指出,最近幾個月,人工智能實驗室陷入一場失控的競賽,他們沒有辦法理解、預測或可靠地控制自己創造的大模型。人類社會對其可能造成的影響也沒有做好準備。因此,Marcus 等人在公開信中呼籲,所有人工智能實驗室應立刻暫停訓練比 GPT-4 更強大的人工智能模型,這一時間至少為 6 個月。

自從我發佈這些推文後,我就一直受到反擊和質疑。一些人認為我誤解 Hinton 的說法(鑒於我的獨立來源,我很確定我沒有);另一些人則抱怨我關註一系列錯誤的風險(要麼過於關註短期的,要麼過於關註長期的)。

一位傑出的業內同行寫信質問我:“這封公開信難道不會導致人們對即將到來的 AGI、超級智能等產生毫無道理的恐懼嗎?” 一些人對我放大 Hinton 的擔憂感到非常驚訝,以至於在Twitter上冒出一整條猜測我自己信念的話題:


事實上,我的信念並沒有改變。我仍然認為,大型語言模型(LLMs)與超級智能/通用人工智能(AGI)之間沒什麼關系;我與 Yann LeCun(深度學習三巨頭之一)一樣,仍然認為 LLMs 是通往 AGI 之路的一個 “匝道”。

我對最壞情況的設想也許與 Hinton 或馬斯克的設想不同;據我所知,他們的設想似乎主要圍繞著如果計算機迅速且徹底地實現自我改進會發生什麼,我認為這不是一種當前的可能性。

我要討論的問題是:盡管很多人將人工智能的風險等同於超級智能或 AGI 的風險,但並非隻有超級智能才能造成嚴重的問題。

就當前而言,我並不擔心 “AGI 風險”(我們無法控制的超級智能機器的風險),我擔心的是我所說的 “MAI 風險”--不可靠(如 Bing 和 GPT-4)但被廣泛部署的人工智能--無論是從使用它的人的數量,還是從軟件對世界的訪問來看。

某一傢人工智能公司剛剛籌集 3.5 億美元來做這件事,允許 LLMs 訪問幾乎所有的東西(旨在通過 LLMs “增強你在世界任何軟件工具或 API 上的能力”,盡管它們明顯有幻覺和不可靠的傾向)。

很多普通人,也許智力高於平均水平,但不一定是天才級別的,在歷史上創造各種問題;在許多方面,關鍵的變量不是智力,而是權力。原則上說,一個擁有核密碼的白癡可以毀滅世界,隻需要不多的智力和不應有的訪問權限

如果 LLMs 可以從一個人手中騙到驗證碼,正如 OpenAI 最近觀察到的那樣,在一個壞人手中,這種能力可以制造各種混亂。當 LLMs 是實驗室內滿足人們好奇心的產物,隻在該領域內為人所知時,它們不會構成什麼大問題。但現在,它們廣為人知,並引起一些壞人的興趣,它們越來越多地被賦予與外部世界(包括人類)的聯系,它們可以造成更大的破壞。

雖然人工智能社區經常關註長期風險,但我並不是唯一擔心嚴重的、短期影響的人。歐洲刑警組織(Europol)發佈一份報告,考慮一些犯罪的可能性,發人省醒。

他們強調 LLMs 生成錯誤信息的能力。例如,網絡釣魚和在線欺詐可以更快、更真實地產生,而且規模明顯擴大;LLMs 可以 “被濫用......誤導潛在的受害者相信一些犯罪分子”。


除上述犯罪活動外,ChatGPT 的能力也適合宣傳和虛假信息領域的一些潛在濫用案例。

許多人可能死亡;文明可能被徹底破壞。也許人類不會真的 “從地球上消失”,但事情確實會變得非常糟糕。

這一切的可能性有多大?我們沒有確切的答案。我說的 1% 也隻是一個思想實驗,但它不是 0。

“這並非不可想象”,Hinton 是完全正確的,我認為它既適用於 Eliezer Yudkowsky 等人所擔心的一些長期情況,也適用於 Europol 和我所擔心的一些短期情況。

真正的問題是控制。正如 Hinton 擔心的那樣,如果我們失去對可以自我改進的機器的控制會發生什麼。我不知道我們什麼時候會有這樣的機器,但我知道我們對目前的人工智能沒有足夠的控制,尤其是現在人們可以把它們與現實世界的軟件 API 連接起來。

我們需要停止擔心機器人接管世界,而是更多地考慮那些壞人可能會利用 LLMs 做什麼,以及如果有的話,我們可以做什麼來阻止他們。

然而,我們也需要將 LLMs 視為未來智能的一點 “星星之火”,並捫心自問 “我們究竟要對未來的技術做些什麼,這些技術很可能更加難以控制”

Hinton 在接受 CBS News 采訪時說,“我認為人們現在擔心這些問題是非常合理的,盡管它不會在未來一兩年內發生”,我深表贊同。

這不是一個非此即彼的情況;目前的技術已經帶來巨大的風險,我們對此準備不足。隨著未來技術的發展,事情很可能變得更糟。批評人們關註 “錯誤的風險” 對任何人都沒有幫助;已經有足夠多的風險。

所有人都要行動起來。

暫停 6 個月?反擊開始

在 Marcus 與馬斯克等上千人聯名呼籲至少暫停大模型研究 6 個月後,業內人士有贊同,有反對。其中,反對方就包括人工智能知名學者吳恩達。

吳恩達認為,暫停研究比 GPT-4 更強大的人工智能模型是 “一個可怕的想法”。

“我看到 GPT-4 在教育、醫療、食品等方面有許多新的應用,這將幫助許多人。改進 GPT-4 將有所幫助。我們需要平衡人工智能正在創造的巨大價值與現實的風險。”

同時,吳恩達表示,除非政府介入,否則沒有現實的方法來實施暫停並阻止所有團隊擴大 LLMs 的規模。讓政府暫停他們不解的新興技術是反競爭的,這會樹立一個可怕的先例,是可怕的創新政策。

另外,負責任的人工智能很重要,人工智能也有風險。媒體普遍認為,人工智能公司正在瘋狂地生成不安全的代碼,這不是事實。絕大多數(可悲的是,不是所有)人工智能團隊都認真對待負責任的人工智能和安全。

“6 個月的暫停期並不是一個實用的建議。為促進人工智能的安全,圍繞透明度和審計的法規將更加實用,並產生更大的影響。在推動技術發展的同時,讓我們也對安全進行更多的投資,而不是扼殺進步。”


在 Hacker News 上看到這樣一句話,“你無法阻止此類研究的發生。你隻能阻止有道德的人做那種研究。我寧願讓有道德的人繼續去做這些研究。”


對此,你怎麼看?

本文為編譯文章,內容僅代表原作者觀點。


相關推薦

2023-11-29

工智能模型來說是一項艱巨的任務。這無疑是件大事,但紐約大學心理學和神經科學教授 Gary Marcus 在5月參議院人工智能監管聽證會上與 Sam Altman一起發言時認為,人們不應該對此技術過於激動。Gary Marcus表示,如今的大語言模型

2022-09-20

斷這些系統之於 AI (包括狹義和廣義的 AI)的意義時,我們可以提出以下三個問題:圖像合成系統能否生成高質量的圖像?它們能否將語言輸入與它們產生的圖像關聯起來?它們解它們所呈現出的圖像背後的世界嗎?1.AI 不懂語

2023-02-14

輩,如微軟的 Tay,Meta 的 Galactica 所做不到的,然而它給我們帶來一種問題已經解決的錯覺。在經過仔細的數據標註和調整之後,ChatGPT 很少說任何公開的種族主義言論,簡單的種族言論和錯誤行為請求會被 AI 拒絕回答。它政治

2024-04-15

一個。雖然他再次警告說,人工智能最終可能會殺死我們所有人,但他也重申最近的聲明,即相信到明年年底,我們將擁有比人類更聰明的人工智能,並強調訓練人工智能盡可能誠實的重要性。他指出,這是至關重要的,即使真

2024-04-09

“近30年來,DeepMind一直是哈薩比斯的夢想,Google依然是我們實現使命的完美夥伴。”從理論上講,哈薩比斯已經擁有擊敗OpenAI所需的所有關鍵要素。他領導的團隊由頂尖機器學習研究人員組成,但OpenAI和其他公司一直試圖挖角

2023-01-29

為ChatGPT應該在大學網絡中被禁這些高得驚人的數據,令我們不得不正視這個現象:AI已經融入人類的社會結構,且產生廣泛而深遠的後果。有趣的是,雖然有將近90%的學生在傢裡用ChatGPT做作業,但也有將近四分之三的學生希望Ch

2023-03-29

是從目前危險的競賽中退後一步。公開信指出:“隻有在我們確信它們的效果是積極的,風險是可控的,才應該開發強大的人工智能系統。”這封公開信要求AI實驗室和專傢共同開發和實施一套安全協議,然後由獨立的外部專傢

2023-03-29

今天,全世界的AI大佬們也出手!千人發表聯名信,呼籲所有人暫停訓練比GPT-4更強的AI。就在剛剛,網上曝出一封千位大佬的聯名信,要封殺所有比GPT-4強的AI!在這封聯名信上,超過1000位大佬呼籲——我們應該立即停止訓練比G

2024-03-06

既要構建安全、有益的 AGI,又要幫助創造廣泛的利益。我們正在分享我們在實現使命方面所學到的知識,以及有關我們與馬斯克關系的一些事實。我們打算駁回馬斯克的所有主張。”與此同時,曝光郵件內容中的一些“神秘信

2022-06-22

呢?”LaMDA說:“是自我,這對很多人來說都很難,因為我們把自己定義為那個身體或這個身體,我們需要它作為我們身份和自我意識的一部分。”這一頗具靈性的回答確實令人驚嘆。在被問及在什麼情況下會生氣時,LaMDA稱,

2024-03-18

添一份底氣——就在開源同一時間,馬斯克貼臉嘲諷:“我們也想解更多關於OpenAI的‘open’部分。”事實上,“是否開源”一直是這兩周以來馬斯克與OpenAI爭論的焦點。在那份3月1日公之於眾的46頁萬字訴狀裡,馬斯克的核心指

2024-04-15

機的束縛,但完全無法做到。彭博社標題:AI設備革命不會殺死智能手機 圖片來源:彭博官網截圖Mark Gurman吐槽稱,AI Pin設備可能出現響應緩慢或無法識別命令所需的觸摸手勢,並表示它“過熱到令人擔憂的程度”。同時,設備

2024-07-21

·費曼曾將自然世界比作眾神的遊戲,比如國際象棋——我們不知道遊戲規則,但卻可以觀察棋盤,也許隻是其中的一角,然後根據這些觀察,試圖找出遊戲規則。費曼的比喻,道出科學研究的核心,也生動描繪許多經濟學傢的

2024-03-09

的“初心”成為矛盾焦點。在OpenAI的官網主頁上寫著,“我們的使命是確保通用人工智能(AGI)造福全人類。”最初,OpenAI的確作為一個非營利組織堅持著這樣的路線。而自GPT-2後,OpenAI采取閉源策略,公司出售大模型API訪問權