GPT-5停不停?Bengio痛心跳出呼籲 LeCun怒斥AI末日論者


呼籲暫停GPT-5的公開信發出後,沉默許久的Bengio發長文,解釋自己簽字的原因,而LeCun繼續強調,現在的擔憂根本是杞人憂天,與AI末日論者辯論毫無意義。

呼籲暫停比GPT-4更強AI訓練的公開信,把超強AI的種種爭議,更加激烈地推到公開的臺面上。

這幾日,後續激辯不斷,幾方立場愈發兩極分化。

而公開信的簽名人數,也從最初的1000出頭,猛增到近1.6萬。


面對接踵而至的指責和質疑的聲浪,OpenAI匆忙在凌晨發文回應:我們會堅決保障AI安全,絕不“偷工減料”!

圖靈三巨頭之一的Bengio,昨天專門在自己的博客上寫一篇長文,解釋自己為什麼簽名贊成暫停超強AI研發。

而另一巨頭LeCun一再表示,這種暫停根本就沒有必要,而且與AI末日論者辯論真的毫無意義。

在與眾網友舌戰多日後,他將於明天和吳恩達親自出鏡,向大眾公開解釋為什麼他們不贊同暫停訓練超強AI 6個月。


LeCun:與AI末日論者辯論毫無意義

今日,LeCun發推再次強調自己的立場:人類需要機器智能。

“歷史一再表明,智能越多,社會和人類的福祉就會越多:我們會擁有更好的技能、讀寫能力、教育、創造力、文化、溝通和思想的自由交流。”

“人類和機器的智能是進步的動力。”


“機器智能是增強人類智能的一種方式,就像機械工具增強人類體能一樣。”


在他看來,擔心AI會滅絕人類,這種想法非常荒謬。


“人們對AI風險過度擔憂的唯一原因,就是這個神話:當你打開一個超級智能系統的那一刻,人類就註定要滅亡。這是荒謬的愚蠢,基於對AI運作方式徹底的誤解。”

而且,今天關於AI安全的討論,跟1890年關於客機安全的討論一樣,全是推測性的。

“在我們擁有可靠達到人類智能水平的AI系統的基本設計和演示之前,關於它們的風險和安全機制的爭論還為時過早。”



有網友在評論區中問他,Hinton的訪談你聽嗎?


LeCun表示:我和Hinton都是37年的朋友,我們在很多事情上都沒有分歧。

他說AI接管“並非不可想象”,我不反對。但我相信,這種事情的概率極低,也很容易預防。


然後,LeCun給網友們分享自己在幾年前與Bengio、Russell、Zador等大佬辯論的帖子,告訴大傢,這才叫有意義的辯論。

但是,與極端的AI末日論者辯論AI倫理和安全,就像與神創論者辯論進化論一樣,毫無意義。


有網友感謝LeCun分享這場辯論,但是強調有些人就是不相信以利潤為導向的公司會將人類和地球的安全置於利潤之上,把他們稱為AI末日預言者,是武斷和不公平的。


而LeCun轉發這樣一篇論文。


他評論道:“由於擔心動蕩,奧斯曼帝國限制印刷書籍的傳播。因此,它錯過啟蒙運動,失去在科學技術上的主導地位,並最終失去經濟和軍事上的影響力。”

在他看來,阻止AI替代我們的高技能工作崗位,也是如此。


Bengio:需要按下暫停鍵

另外,簽署公開信的圖靈三巨頭之一Yoshua Bengio在沉默幾天後,首次解釋自己加入FLI呼籲的看法:

一年前我可能不會簽署這樣一封信。正是因為人工智能發展出現意想不到的加速,因此我們需要退一步。並且我對這些問題的看法已經改變。


就此,Bengio在自己的網站上發表一篇長文,具體解釋簽署公開信的原因——技術進步需要放緩,這樣才能確保安全、保護集體的福祉。


Bengio認為我們已經越過一個關鍵的門檻:機器現在可以和我們對話,甚至假裝成人類。

而且,自從ChatGPT發佈以來,大傢發現不那麼謹慎守規矩的玩傢會有競爭優勢,如果是這樣的話,那麼通過降低謹慎和道德監督的水平,就可以更容易出頭。

面對更加激烈的商業競爭,OpenAI也可能會急於開發這些巨大的人工智能系統,把他們在過去十年的人工智能研究中養成的透明和開放科學的良好習慣拋在腦後。

Bengio表示,簽署這封公開信可以提醒學界和工業界:我們必須花時間更好地解這些系統,並在國傢和國際層面制定必要的框架,來增加對公眾的保護。

即使簽署這封公開信造成的影響可能沒有那麼大,但是起碼會掀起一場全社會的討論。我們將不得不在未來幾年做出集體選擇,包括我們想用我們正在開發的強大工具做什麼。

從中短期風險來看,可能是出於政治目的操縱公眾輿論,特別是傳播虛假信息,這很容易預測;而長期風險就是偏離程序員所設定的目標,對人類造成傷害,這種風險很難預測。

但是這封公開信並不是要叫停所有的AI研究,也並不是說GPT-4將成為自主的AI並威脅到人類。相反,危險的是懷有不良意圖的人類或根本不知道其行為後果的人類,在未來幾年內可能利用這些工具危及人類的未來。


現在,我們需要規范這些系統,提高人工智能系統的透明度和監督,保護社會。風險和不確定性已經如此嚴重,因此我們的治理機制也要加速發展。

社會需要時間來適應變化,法律需要時間來通過,監管框架需要時間來落實。Bengio認為迅速提高意識,把這個問題放在更多的場合去進行更多的公眾辯論是很重要的。

不過,從根本上來說,Bengio對技術是樂觀的,他認為技術將能夠幫助我們克服人類面臨的巨大挑戰。然而,為面對這些挑戰,現在需要的是去思考如何調整我們的社會,甚至完全重塑它們。

“我們應該放棄嗎?當然不是。減少對未來的損害,我們總是有辦法做得更好,在正確的方向上的每一步,都會有所裨益。”

對此,紐約大學馬庫斯也表示支持,盡管兩人之前有些意見相左。


馬斯克:這是個電車難題

另一邊,作為公開信支持者的馬斯克表示,你們這些反對暫停的人就屬於下面這種人:

“另一條路太繞,會減慢AI的發展,不如還是直接碾過去吧。”


而有網友指出“華點”—— “如果你沒有將強大的AI裝到每一輛特斯拉中,我會更相信你的擔憂。”

“為什麼過度監管某些AI模型,而不是實際的應用程序呢?語言模型無法說出或選擇它們『想要』的內容,就像特斯拉的FSD系統不能自己決定開到哪裡。”


LeCun轉發該網友的推文,表示同意:“沒錯,應該去規范應用,而不是研發。”


OpenAI急忙澄清

眼看AI安全已經成為眾矢之的,OpenAI急忙出面,表示自己也很重視AI安全。


在昨天發佈的“Our approach to AI safety”的長文中,OpenAI主要探討安全地構建、部署和使用人工智能系統的方法。

OpenAI表示,強大的人工智能系統應該接受嚴格的安全評估。

GPT-4在發佈之前,對其進行嚴格的測試,內部員工耗時6個月去確保發佈前讓模型更加安全和一致。

並且,還讓外部專傢參與反饋,利用人類反饋強化學習(RLHF)等技術改善模型的行為。

另外,文中還列出其他確保AI安全的方法:

- 從真實世界的使用中學習,以改進保障措施

- 保護兒童

- 尊重隱私

- 提高事實的準確性

最後,OpenAI提出應該“繼續研究和參與”。這一點可以說是對近來呼籲暫停超強AI研發的正面回應。

我們認為,解決人工智能安全問題的實用方法是投入更多的時間和資源來研究有效的緩解措施和調整技術,並針對現實世界的濫用進行測試。


暫停六個月,時間夠嗎?

根據一項調查,69%的美國成年人強烈支持或在一定程度上支持暫停開發六個月,但也有人認為這似乎隻是徒勞。



而關心AI會毀滅人類這個話題的人,和不關心的人,大約各占一半。


相關推薦

2023-11-03

升級圖靈三巨頭、吳恩達等人,一邊簽署聯名信,一邊永不停休進行著激烈的爭論。繼昨天Hinton主動出站抨擊吳恩達、LeCun之後,今天又開始新的回合。我懷疑吳恩達和Yann LeCun忽略大公司希望制定法規的主要原因。幾年前,一傢

2023-03-29

來。最近,關於GPT-5的預測,更是就像雨後春筍一般冒個不停……(非官方)根據一個神秘團隊的預測,GPT-5將在GPT-4的基礎上,帶來一系列令人興奮的功能和增強的性能,比如在可靠性、創造力和適應復雜任務方面的全面超越。

2023-11-01

關註的焦點話題之一。就在前幾天,深度學習三巨頭之二Bengio和Hinton,已聯合姚期智、張亞勤等人工智能大拿,發表一封公開信《在快速進步的時代管理人工智能風險(Managing AI RIsks in an Era of Rapid Progress)》。文中談到:2019年

2023-03-30

能系統的訓練,暫停時間至少為6個月。圖靈獎得主Yoshua Bengio、馬斯克、蘋果聯合創始人Steve Wozniak等上千名科技大佬和AI專傢均簽署公開信。在眾多大佬的光環下,這封信引起軒然大波,部分認為這就是是“酸葡萄心理”,AI競

2023-11-02

確實有些毛病……同時, LeCun 還直接點名道姓 Hinton 和 Bengio ,說他們現在的立場,對那些不想開源代碼、開放模型的科技巨頭來說,簡直就是助紂為虐。過度監管等於是拉高 AI 研發的門檻,後來的人想要進入這行就變得更難。

2023-04-17

坦誠的態度。此前,特斯拉CEO馬斯克、圖靈獎得主Yoshua Bengio、蘋果聯合創始人Steve Wozniak等多位科技界知名人物簽署一封公開信,呼籲在6個月內暫停開發比OpenAI公司新推出的GPT-4更為強大的系統。不過對此,微軟聯合創始人比爾

2023-03-29

oah Hararias)、馬斯克、圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、紐約大學名譽教授加裡•馬庫斯(Gary Marcus)等,他們呼籲暫停訓練比GPT-4更強大的AI系統至少6個月。不出所料,OpenAI和微軟高管並沒有簽署這封公開信。此外,Me

2023-04-15

an究竟說什麼。對聯名信首次表態此前,圖靈獎得主Yoshua Bengio、蘋果創始人、馬斯克等全球大佬聯合起來簽署公開信,對GPT-5發出圍剿。現在,簽名人數已經突破2.5萬。隨後,另一圖靈獎得主Yann LeCun、吳恩達等大佬也紛紛表明自

2024-03-06

似的能力!所以,Claude 3真是一個發展出意識的AI嗎?LeCun怒斥:可能性為0對此,馬斯克貢獻一句神評論:我們人類,說不定也隻是外星計算機上的一個CSV文件而已。也許我們隻是外星計算機上的一個CSV文件而已。這個現實就是

2023-02-06

不是光隻因為Galactica下線的事情。與另外兩位圖靈獎得主Bengio和Hinton的相對低調不同,近幾年,LeCun在社交媒體上的活躍在AI圈子裡也是出名的。不少工作在掛Arxiv之後就第一時間在Twitter上宣傳一波。同樣高調的馬庫斯也是一向

2023-11-30

成碎片,難以連貫。隨著OpenAI的“公司政變”,人們終於跳出圍繞ChatGPT的敘事,將恐懼指向OpenAI追求的原點,通用人工智能AGI。OpenAI定義AGI是高度自主的系統,在最具經濟價值的工作中優於人類,用阿爾特曼自己更通俗的話說

2023-11-06

,馬斯克和xAI已經準備好深入。在xAI官網的聲明中,多次呼籲更多人才加入。接下來,xAI還將在一些方向上精進,比如模型上下文理解和檢索的能力,以及為Grok配備視覺和聽覺等不同感官能力,提高多式聯運能力,實現包括實

2023-11-04

與此同時,10月25日,圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、“深度學習之父”傑弗裡·辛頓(Geoffrey Hinton)、姚期智(Andrew Yao)、張亞勤等 AI 行業專傢也簽署一封聯名信,信中繼續呼籲加強對於AI技術發展的監管,認為在

2023-03-31

近,包括埃隆.馬斯克在內的千名專傢聯合簽署公開信,呼籲暫停訓練GPT-4後續AI模型至少6個月。消息一出,引爆全球網絡和媒體,很快引來吳恩達等“AI大牛”的反對。如何看待雙方的爭論?我們一層層分析問題。先說競爭失