Meta AI大佬:目前大多數AI方法永遠不會帶來真正智能


9月26日消息,Facebook母公司Meta的首席AI科學傢雅恩·勒昆(YannLeCun)認為,目前大多數AI方法永遠不會帶來真正的智能,他對當今深度學習領域許多最成功的研究方法持懷疑態度。這位圖靈獎得主表示,同行們的追求是必要的,但還遠遠不夠。其中包括大型語言模型的研究,如基於Transformer的GPT-3。

正如勒昆所描述的那樣,Transformer的支持者們相信:“我們將所有東西標記化,並訓練巨型模型進行離散預測,AI由此脫穎而出。”

Yann_LeCun_-_2018_(cropped).jpg

勒昆解釋稱:“他們沒有錯。從這個意義上說,這可能是未來智能系統的一個重要組成部分,但我認為它缺少必要的部分。”勒昆完善卷積神經網絡的使用,該技術在深度學習項目中取得令人難以置信的成效。

勒昆還看到該學科許多其他高度成功領域的缺陷和局限性。他堅持認為,強化學習永遠也不夠。像DeepMind的大衛·西爾弗(David Silver)這樣的研究人員,盡管他們開發出AlphaZero程序,掌握國際象棋和圍棋,但他們關註的是“非常註重行動的”程序,而勒昆觀察到,“我們的大部分學習並不是通過采取實際行動來完成的,而是通過觀察來完成的”。

現年62歲的勒昆有很強的緊迫性,他必須直面自己認為許多人可能正在奔向的死胡同,並試圖引導其所在領域朝著他認為應該走的方向前進。勒昆說:“我們看到很多關於我們應該做些什麼來推動AI達到人類智能水平的說法,我認為有些想法是錯誤的。我們的智能機器甚至還沒有達到貓的智能水平。那麼,我們為什麼不從這裡開始呢?”

勒昆認為,不僅是學術界,AI行業也需要深刻的反思。他說,自動駕駛汽車群體,如Wayve這樣的初創公司,認為他們隻要向大型神經網絡“拋出數據,就可以學到幾乎任何東西”,這似乎“有點兒過於樂觀”。

勒昆稱:“你知道,我認為我們完全有可能在沒有常識的情況下擁有L5級自動駕駛汽車,但你必須在設計方面做出努力。” 他認為,這種過度設計的自動駕駛技術將會像所有被深度學習淘汰的計算機視覺程序一樣,變得脆弱不堪。他說:“歸根結底,將會有一種更令人滿意、可能也更好的解決方案,它涉及到更好地理解世界運行方式的系統。”

勒昆希望促使人們重新思考有關AI的基本概念,他說: “你必須後退一步,然後說:‘好吧,我們建造梯子,但我們想去月球,而這個梯子不可能把我們帶到那裡。’我要說的是,這就像制造火箭,我不能告訴你我們如何制造火箭的細節,但我可以提供基本原則。”

勒昆認為,AI系統需要能夠推理,而他所提倡的過程是將某些潛在的變量最小化。這使得系統能夠計劃和推理。此外,勒昆認為應該放棄概率框架,因為當我們想要做些事情,比如捕捉高維連續變量之間的依賴性時,這很難處理。勒昆還主張放棄生成模型,因為系統將不得不投入太多的資源去預測那些很難預測的事情,可能會消耗太多的資源。 (小小)


相關推薦

2022-10-07

後都會不可避免地碰到那個話題——AI會不會取代人類。目前來說,一位影視行業的工作者表示還不到時候:老實說,作為一個在電影行業工作十年的人,這個話題令人沮喪。在他看來,當前的視頻生成AI在外行看起來已經足夠

2023-02-14

ChatGPT的技術上個星期被微軟裝上必應搜索,擊敗Google,創造新時代的時候似乎已經到來。然而隨著越來越多的人開始試用,一些問題也被擺上前臺。有趣的是,每天都在登上熱搜的ChatGPT似乎也讓以往觀點相悖的著名學者,紐約

2024-05-28

聲明:本文來自於微信公眾號雪豹財經社(ID:xuebaocaijingshe),作者:王亞駿 魏琳華 曹毅,授權站長之傢轉載發佈。1956年,計算機科學傢約翰·麥卡錫在達特茅斯會議上,首次提出“人工智能(Artificial Intelligence)”。在此後近70年

2023-03-16

GPT-4會將整張圖片分解,並正確地解釋這個笑話的笑點。目前,隻有一個合作夥伴可以使用GPT-4的圖像分析功能,這是一款針對視障人士的輔助應用程序,名為Be My Eyes。佈羅克曼說,在OpenAI評估風險和利弊的過程中,無論何時,

2023-11-25

傳聞中OpenAI的Q*已經引得AI大佬輪番下場。AI2研究科學傢NathanLambert和英偉達高級科學傢JimFan都激動的寫下長文,猜測Q*和思維樹、過程獎勵模型、AlphaGo有關。人類離AGI,已是臨門一腳?OpenAI的神秘Q*項目,已經引爆整個AI社區!疑

2023-11-02

工智能領域關於AI風險性的爭論已進入白熱化階段,各路大佬紛紛下場,一時間將人工智能安全隱憂帶上新的風口浪尖,但大佬們背後卻仍惺惺相惜,隻稱學術之爭不傷友誼。Clegg之外,計算機科學傢、Google Brain聯合創始人吳恩

2023-03-30

生什麼樣的慘痛後果。事實上,如何關掉AI,是很多簽名大佬擔心的問題。但如果AI的應用走得太快,關掉它也許便可能需要付出巨大代價,成一件難事。馬斯克便曾設想過,如果一個系統裡算法失控,管理人員可以找到它。但

2023-11-01

種場面還是第一次見,支持大傢吵起來,真理越辯越明。大佬們吵成這樣,又究竟吵出些啥?板凳已經擺好,一起來看。現場還原:三大回合battle這一場大戰的直接“著火點”是吳恩達昨晚的公開發言:你們知道嗎?我對AI的最

2023-03-23

親說什麼?它寫一個深思熟慮的答案,可能比我們房間裡大多數人給出的要好。整個體驗令人驚嘆。我知道我剛剛看到自圖形用戶界面以來最重要的技術進步。這激發我思考人工智能在未來五到十年內可以實現的所有目標。人工

2024-05-10

起失業恐慌,不少網友表示:“我是真的慌”。就連業界大佬們也坐不住,馬斯克、圖靈獎得主本吉奧等大佬,聯名發起暫停高級AI研發的公開信,全世界瞬間燃起一股圍剿ChatGPT的勢頭。然而,大傢對AI的警惕似乎在逐漸放松,

2023-11-01

的研究成果。但當Sutskever在2000年代初加入他的團隊時,大多數人工智能研究人員都認為神經網絡是一條死胡同。辛頓是個例外。Sutskever說:“這就是生成式人工智能的開端。真的很酷,隻是還不夠好。”Sutskever對大腦非常著迷

2024-03-09

完成,那麼不出五年,AI會把每個測試都做得很好。截至目前,AI可以通過律師考試等測試,但是在胃腸病學等專業醫療測試中,它依然舉步維艱。但在老黃看來,五年後,它應該能通過這些測試中的任何一個。不過他也承認,

2023-03-28

拿ChatGPT越獄……在看過這場對話之後,網友直呼:兩位AI大佬用大傢都能理解的方式聊AI,多來點這樣的訪談。那麼接下來,我們就來一同看下他們這場深度對話。GPT-4內幕大曝光GPT-4是這場對話中最受關註的部分。它是如何訓練

2023-03-30

輪爆發,讓過去幾年在技術趨勢中搖擺、彷徨中的大廠和大佬,找到新航道。但這其中,並沒有傳出陸奇的聲音。他與 Open AI的距離,很近,也很遠。除去本身在人工智能方面的多年積累,他在矽谷乃至全球科技圈建立的人脈中