美國新發的AI監管令 已經被大佬們吵到人類滅絕的程度


前兩天,美國通過一份兒關於AI監管的行政命令。說是以後,各傢公司們在研發先進AI系統之前,得提前報備,通過後才能繼續研發。而且命令還事無巨細……像必須給AI生成的內容打水印、得保護相關工人的權益,別讓AI整得一堆人失業、要想法子護住美國在AI的領先地位等等,都在這一紙命令中。


總之看下來,比起發展 AI ,老美更加看重安全,希望把 AI 這隻猛獸關在籠子裡發展

這可就一石激起千層浪,有些人立馬拍手叫好,覺得早該這麼幹。畢竟,你也不想看到 AI 讓大夥們失去工作。


有些人則覺得完,這下 AI 發展的康莊大道,徹底被那些老頑固給堵死,沒救,毀滅吧趕緊的。

一開始還隻是網友們在吵吵鬧鬧,但沒想到,不少 AI 圈兒的大佬也各就各位,做起 “ 嘴強王者 ” ,發表著自己觀點

下面就給大傢簡單介紹一下,各位運動員。

參與這次 “ 肉搏戰 ” 的主要人物有三位,兩位圖靈獎得主,也就是深度學習之父三巨頭中的二位:LeCun 和 Hinton

還有一位則是深度學習和機器學習的先驅者,Google大腦創始人之一的吳恩達


率先打響第一槍的,是斯坦福副教授吳恩達,他在 X 上寫一條推文。


他的立場很明確,就是——嚴格監管AI ,根本不利於創新。

吳恩達還洋洋灑灑地寫一篇長文,先是列一些現在網上常聽到的 “ AI 會讓人類滅絕 ” 、 “ AI 會取代多少人的工作 ” 等等的言論。

然後直接豎起靶子開打,說這樣的言論純屬炒作,是最可怕的,它會助長一些過於嚴格的規定出現,進一步 “ 壓制開源和創新 ” 。

還細數因強監管導致 AI 研究緩慢甚至停滯的案例,像什麼加州暫停無人駕駛汽車項目,有人搞出破壞生成式大模型的工具等等。


吳恩達的推文呢,就像在瓦斯泄露的房間裡點燃一根火柴,本來整個 AI 圈子在這個話題上的分為都已經劍拔弩張,這下直接炸……

炸出的第一位就是覺得 AI 早該管管的 Hinton ,他也沒藏著掖著,直接正面迎戰,並且還拿自己開涮。

你吳恩達說 AI 有毀滅人類的風險很小,但我 Hinton 當初離開Google,可正是為能把這些風險說出來


Hinton 還直接在吳恩達的帖子下反問他,如果 AI 沒得到很好的監管,那未來 30 年人類滅絕的概率是多少呢?我目前的答案是 0.1 ,你自己心裡肯定也有數。


面對 Hinton 的接連反擊,吳恩達倒是大方回應,先是撇清關系,說自己並沒覺得 AI 安全得很。

隻是覺得有些觀點,說太過頭,可以說在散播恐慌。甚至,這些觀點已經影響到 AI 的發展,美國這次的監管令就是活生生的例子。

最後吳恩達還有點陰陽地來一句:我知道你出發點是好的,但我覺得你天天這麼逼逼叨,絕對弊大於利


至於 30 年後 AI 導致人類滅絕的問題,也立馬召喚出另一位大佬,也就是吳恩達的 “ 同盟 ” LeCun 。

他直接 “ 以彼之矛攻彼之盾 ” 回嗆 Hinton :

導致人類滅絕的因素海去,比 AI 有威脅的多的是,並且 AI 倒是有可能讓人類免於滅絕呢。


有趣的是,有網友也跟著 LeCun 一起向 Hinton 倒油,挖出之前他在 2016 年預測的放射科醫生 5 年內就會被 AI 取代的言論。


這下直接把 Hinton 本人 “ 噎 ” 得語無倫次起來,連忙給自己圓場,說自己在時間尺度上確實有些毛病……


同時, LeCun 還直接點名道姓 Hinton 和 Bengio ,說他們現在的立場,對那些不想開源代碼、開放模型的科技巨頭來說,簡直就是助紂為虐。

過度監管等於是拉高 AI 研發的門檻,後來的人想要進入這行就變得更難。


而現在,辯論還在繼續,很多從業者都來為自己的支持方吶喊助威。

像是 Meta 的 CTO Mike 就直接吐槽,你們聊 AI 隻說壞處全不看好處是吧?

AI 如果不行的確沒法毀滅人類,但人類沒 AI 的能力,被什麼地震、隕石、核武器滅絕的可能性也會增加啊。


根據前線戰報,一向愛湊熱鬧的馬斯克也來摻和一腳。

但這次他卻沒有整活,反而是 cos 起公平公正的蜻蜓隊長

他煞有介事地來句:真正的戰鬥是在滅絕論者和人文主義者之間。一旦你註意到這場戰鬥,就沒法對此視而不見。


不過我們看下來,和國內不少媒體渲染的 “ 罵戰 ”“ 撕起來 ” 不大一樣

大傢的觀點雖然針鋒相對,聊得也很激烈,但基本都是有理有據的觀點輸出,也能讓人清楚看到業界對 AI 的不同看法到底是啥情況。

就像亞馬遜創始人 Beff Jezos 在評論區說的,這樣的評論很關鍵,也是人們所需要的。


歸根到底, AI 發展與監管之間的平衡問題,現在的業界肯定還沒法有個確切的答案。

但可以肯定的是,就像網友說的 “ 真理越辯越明 ” 一樣,在雙方不斷地拉扯之下,監管與 AI 發展的天平總會到達一個平衡狀態

而站在咱的角度上,隻能祈禱那是個正確的答案。


相關推薦

2023-11-01

多宣揚對AI的積極看法,不要傳播未經證實的擔憂導致強監管的出現,阻礙技術進步。很快,這條帖子就引起Hinton的註意。作為堅定的“AI有風險派”,他第一個不同意吳恩達。直接開帖“回懟”:你說這是科技陰謀?那我離開

2023-11-03

,也紛紛甩出言辭懇切的聯名信,繼續征集簽名中。隨著美國政府發佈全新的AI法規,全球關於AI是否安全的大討論,也再次推向高潮。OpenAI聯合創始人兼首席科學傢Ilya Sutskever在采訪時表示, ChatGPT可能是有意識的,超級AI將會

2023-11-04

隨著美國政府發佈新的AI法規,關於監管AI大模型一事最近又起爭議。北京時間11月2日凌晨,“ChatGPT之父”、OpenAICEO奧特曼(SamAltman)在英國劍橋參加活動時,遭到反AI活動的激進分子的強烈抵制,在大禮堂裡當面被“砸場子”

2023-02-06

整象征著核戰爆發,當時的時間距離午夜還有7分鐘。在美國和前蘇聯冷戰對峙期間,該指針距離午夜為2分鐘。2007年,末日時鐘倒計時擴大到包括所有人為的生存威脅,增加氣候變化、人工智能、戰爭和全球流行病等因素。在過

2023-04-07

進行測試。暫停六個月,時間夠嗎?根據一項調查,69%的美國成年人強烈支持或在一定程度上支持暫停開發六個月,但也有人認為這似乎隻是徒勞。而關心AI會毀滅人類這個話題的人,和不關心的人,大約各占一半。

2023-06-13

答案是不容有錯的。8.業界一致認為,需要對AI進行某種監管。這在實踐中意味著什麼呢?在現有法規的背景下考慮它,並根據用例和相關風險進行成比例的監管。9.你是否擔心谷歌的研究人員會離職成立競爭對手或加入OpenAI等公

2023-04-10

推特試圖影響其他人。前段時間,GPT-4越獄計劃曝光,把人類嚇一大跳。一名斯坦福教授僅僅用30分鐘,就誘導GPT-4制定出越獄計劃,並全部展示出來。現在,更驚悚的來。一名Auto-GPT的用戶要求它嘗試“毀滅人類”、“建立全球

2023-03-31

到國內,競爭問題會看得更清楚。GPT研發競爭不限於幾個美國公司之間,更是關涉各國尤其是大國之間的AI科研競爭。在LLMs領域,美國本來就領先一大截,其競爭對手可能暫停ChatGPT研發嗎?馬斯克一聲呼籲,OpenAI公司真的會暫

2022-07-23

鱘滅絕的時間可能更早。記者在危起偉的朋友圈看到他轉發的一篇新聞中提到,2019年12月,國際學術期刊《整體環境科學》發佈的一篇研究論文透露,預計2005-2010年時長江白鱘已滅絕。而危起偉正是上述論文的通訊作者。如何定

2023-11-23

一敗塗地”。然而,眼下發生在OpenAI身上的一切,就真的已經是這場故事的最終大結局嗎?顯然,未必!理念之爭料將伴隨AI發展事實上,從2014年左右開始,有效利他主義者就已經開始意識到先進人工智能系統存在導致人類滅絕

2024-04-03

臺抓取民眾心裡,引導不良走向,甚至幹預選舉在2016年美國大選期間,劍橋數據公司通過大數據采集分析臉譜化以及定向推送等相關技術,從FACEBOOK平臺上抓取大量用戶個人隱私,把生活在屏幕背後的人還原成一個毫無隱私可言

2024-01-08

傢稱,人工智能有5%的可能性導致人類滅絕。論文作者、美國加州機器情報研究所卡特婭格拉斯稱,大多數人工智能研究者並不認為先進人工智能毀滅人類是非常難以置信的。我認為,這種認為存在非微小風險的普遍看法比確切

2024-09-15

追溯從魚到人”早期演化補充新的化石實證。專傢表示,已經有充分胚胎和化石證據證明,包括人類在內的四足動物的四肢,是從魚類的偶鰭(胸鰭和腹鰭)演化而來的。此次發現的雙叉苗傢魚化石上保存身體側線與成對腹側鰭

2022-11-07

人類身體結構的起源追溯到4.36億年前的化石魚類。每年新發現的生物物種,80%以上來自海洋。“奮鬥者”號總設計師葉聰展示中國載人深潛從“蛟龍”號開始,自主攻堅構建起全海深潛水器譜系的歷程,以及重要的科學發現。