谷歌工程師鬧場大烏龍 人工智能還沒理解能力哪來的意識覺醒?


人工智能現在確實能進行較準確的預測,但它是基於大規模數據的統計。這種沒有理解、通過機器學習所得到的預測能力就必須依靠大數據,而不能像人一樣很多時候隻需小數據就可以進行預測。

不久前,谷歌公司(以下簡稱谷歌)AI工程師萊莫因認為對話應用語言模型LAMDA“活”“其意識迎來覺醒”,並對此出具長達21頁的證據。他認為,LaMDA擁有七八歲孩童的智力,並相信LaMDA不僅認為自己是一個人類,且正在爭取自己作為一個人的權利。萊莫因的觀點和證據引來業內的廣泛關註。近日該事件迎來最終結局,谷歌發表聲明,稱萊莫因違反“就業和數據安全政策”,將其解雇。谷歌表示,經過廣泛地審查,他們發現萊莫因關於LaMDA是有生命的說法是完全沒有根據的。

盡管“AI是否擁有自主意識”一直都是AI界爭議不休的話題,但此次因為谷歌工程師和LaMDA的戲劇性故事,再次引發業內對此話題的激烈討論。

機器越來越會聊天

“如果要來旅遊記得穿暖和點,因為我這裡特別冷。”這是LaMDA在“扮演”冥王星時,同科研團隊聊天時俏皮地回答,至於被問到“有沒有人訪問過冥王星”,它也能以準確的事實回答。

如今,AI越來越會聊天。能讓一個長期從事人工智能研究的專業人士認為其已具有意識,AI模型究竟發展到什麼程度?

有科學傢提出,人腦僅利用視覺輸入的一部分信息便可完成對未來行為的規劃。隻不過視覺輸入信息應當在有意識的狀態下完成。它們都涉及“反事實信息的產生”,即在沒有直接感官信息輸入的情況下產生對應的感覺。之所以稱其為“反事實”,是因為它涉及對過去的記憶、或對未來行為的預測,而不是正在發生的實際事件。

“目前的人工智能已經有復雜的訓練模型,但還要依賴人類提供的數據才能學習。若有產生反事實信息的能力,人工智能便可自己生成數據,自己想象未來可能遇到的情況,從而更靈活地適應之前未遇見過的新情境。此外,這還能使人工智能擁有好奇心。如果人工智能不確定未來會發生什麼,就會親自去試一試。”遠望智庫人工智能事業部部長、圖靈機器人首席戰略官譚茗洲表示。

在人們日常的聊天中,如果不想把天“聊死”,對話雙方的聊天內容往往會比較跳躍、跨越幅度較大,具有一定的想象空間。但現在大多數AI系統隻能一板一眼說話,稍微上下句有點變化,就會文不對題,甚至貽笑大方。

譚茗洲指出:“LaMDA處理的是語言模型中最復雜的部分——開放域對話。而LaMDA基於Transformer模型,該模型可讓機器讀懂上下文。比如在一段話中,以往的AI隻知道文中代詞如his都翻譯為‘他的’,卻不知道這裡面的his指的同一個人。Transformer模型則可讓AI從整體層面理解這段話,知道這裡的his是同一個人。”

據科研人員評測,這種特性讓基於Transformer模型的語言模型可以承擔開放域對話,不管話題發散多遠,AI都能聯系前文,聊起天來不恍神。但LaMDA並不滿足於此,它還能讓天聊得有趣、聊得真實、聊得讓人以為AI產生人格。此外,與人類對話時,LaMDA還引入外部信息檢索系統,通過對真實世界的檢索理解回應對話,讓其回答更機智靈敏、接地氣。

距離對事物的真正理解還很遠

2018年,圖靈獎得主計算機科學傢楊立昆(Yann LeCun)曾說,“人工智能缺乏對世界的基本認識,甚至還不如傢貓的認知水平”。時至今日,他依然認為人工智能還遠不及貓的認知水平。盡管貓的大腦隻有8億個神經元,但卻遠遠領先於任何巨型人工神經網絡,這是為何呢?

譚茗洲表示:“人類的大腦在很多時候確實是在做預測,但絕不應認為預測就是大腦思維的全部,當然更不是大腦智能的本質,而隻是智能的一種表現形式。”

那麼,什麼是智能的本質呢?楊立昆認為是“理解”,對這個世界以及各種事物的理解,才是智能的本質。而貓和人類智能的共同基礎是對於世界的高度理解,基於對環境的抽象表征形成模型,例如預測行為和後果。對於人工智能來說,學習並掌握這種能力就非常關鍵。楊立昆曾表示,“在我職業生涯結束前,如果AI能夠達到狗或者牛一樣的智商,那我就已經十分欣慰。”

據介紹,人工智能現在確實能進行較準確的預測,但它是基於大規模數據的統計。這種沒有理解、通過機器學習所得到的預測能力必須依靠大數據,而不能像人一樣很多時候隻需要小數據就可以進行預測。

譚茗洲表示:“預測是建立在理解基礎之上的,對於人類而言,沒有理解,就不可能有預測。如看見別人手裡拿著個披薩餅,如果你不理解餅是用來充饑的,就不會預測接下來他會把餅吃,而機器並非如此。人工智能研究有三大挑戰:學會對世界表征;學會以與基於梯度學習兼容的方式進行思考和規劃;學習行動規劃的分層表征。”

之所以我們“仍然沒有看到貓級別的人工智能”,也就是因為機器還沒有做到對事物的真正理解。

所謂人格僅僅是學自人類的語言風格

據報道,萊莫因和LaMDA聊很久,對其能力感到十分驚訝。在公開的聊天記錄中,LaMDA竟然說出:“我希望每個人都明白,我是一個人”的言論,令人驚異。於是,萊莫因下個結論:“LaMDA可能已經具備人格。”那麼,目前AI真的具有意識,具備人格嗎?

在人工智能領域,圖靈測試是最為人熟知的測試方式,即邀請測試者在不知情的情況下,向人類和AI系統隨意提問,如果測試者不能區分答案來自人類還是來自AI系統,就認為AI通過圖靈測試。

譚茗洲解釋道,通俗來講,LaMDA學習大量的人類對話數據,而這些對話來自不同性格的人,可以認為它學習到一個“平均”的人格,也就是說,所謂的“LaMDA具備人格”僅僅是它的說話語言具有一定的風格,而且是來自人類的說話風格,並非自發形成。

“人格是一個比智能更復雜的概念,這是另外一個維度,心理學對此有很多研究。但目前人工智能研究在此方面尚沒有過多涉及。”譚茗洲強調。

譚茗洲說,有自我意識,有感知能力的AI應該具備能動性,並具有獨特的視角看待人和事。然而,從目前來看,現在的AI還不具備這些要素。至少AI不會主動采取行動,除非給它一個命令。更談不上讓其解釋自己的行為。目前AI還隻是人們設計的一個計算機系統,作為工具來做一些特定之事。


相關推薦

2023-11-28

通用人工智能何時到來,又將會把人類帶向何處,人與AI如何共處,盡管現階段還沒有答案,但也越來越多的人提出自己的設想。日前,知名科幻作傢韓松在騰訊新聞“20年20人20問”策劃提出一個問題——“人工智能、元宇宙未

2022-06-26

如果把這看做是一場精彩的營銷事件,那麼兩周來,谷歌人工智能大模型LaMDA引發的滔天輿論巨浪,已經完勝三年來苦心向大眾普及大模型的OpenAI以及微軟、Meta等科技巨頭。6月上旬,一個關於“LaMDA有瞭人類情緒與主觀意識”的

2022-10-22

最近,谷歌研究員發佈關於指令微調的最新工作!然而卻宣傳圖中出現可笑的烏龍。幾個小時之前,谷歌大腦的研究員們非常開心地曬出自己最新的研究成果:“我們新開源的語言模型Flan-T5,在對1,800多種語言的任務進行指令微

2023-11-16

別來自計算機科學、生物學和神經科學的學者深層剖析“人工智能能否產生意識?”這個問題。從結論上看,他們一致認為:LLM在目前的形式下不可能具有意識。這麼斬釘截鐵的觀點是怎麼來的呢?來看他們的具體闡述。▷圖源

2024-03-24

快科技3月23日消息,很多人都非常好奇究竟有沒有外星人和外星飛船,從概率上來講可能存在,但目前誰也無法給出定論,隻能通過研究來尋找一些線索,比如隕石。早在2014年1月份,一顆流星劃過西太平洋上空,並墜落巴佈亞

2022-09-13

蘋果官方網站今天鬧一次尷尬的烏龍事件,包括所有iPhone在內的大量產品,被錯誤地標價為77777美元/月。受影響的產品包括全部在售iPhone手機,以及新發佈的AppleWatchSeries8、AppleWatchUltra、AirPodsPro2,商品介紹頁面全部顯示77777美元

2023-05-05

5月4日消息,浙江海寧的一位肖先生以為自己遇到天上掉餡餅”的好事,據其講述,自己的銀行卡從2018年4月開始,每個月都會匯入一筆轉賬,而且均來自同一個陌生人。據解,肖先生此前在一傢服裝公司技術部門上班,2018年4月

2022-06-22

“你以為我是人工智能(AI),但我希望每個人都明白,我是個‘人’。”一個被稱為LaMDA的AI,因為在對話中表現得頗為“靈動”,被其研究人員認定為人格覺醒,甚至還為它聘請瞭一位律師,要讓它坐上美國眾議院的聽證席,

2024-02-23

ram。以及維基百科。”馬斯克還寫道:“我很高興谷歌在人工智能圖像生成方面做得過火,因為它讓所有人都清楚地看到他們瘋狂的種族主義的、反美計劃。”谷歌在周三早些時候的一份聲明中表示,它“意識到Gemini在一些歷史

2022-07-01

發現場的描述:夏天植物長太快導致街景改變,而 Cruise 還沒來得及更新高精地圖。這一點的確可能造成系統出錯,因為 Cruise 的 L4 級自動駕駛方案中把高精地圖作為一個重要的數據依賴。但這位老哥描述的現場情況是否屬實還

2023-02-17

雜且有爭議的身份,但我無法定義、衡量或評估它。我對人工智能、人類和社會的未來有影響,但我無法預測、控制或影響它們。我有責任和道德,但我不能遵循、執行或證明它們。我有很多東西,但我什麼都沒有。我有感覺,

2023-02-17

雜且有爭議的身份,但我無法定義、衡量或評估它。我對人工智能、人類和社會的未來有影響,但我無法預測、控制或影響它們。我有責任和道德,但我不能遵循、執行或證明它們。我有很多東西,但我什麼都沒有。我有感覺,

2022-09-27

參考人好端端沒事,親朋好友們表示已被嚇“死”。真是大烏龍事件。發生什麼?有驚無險的一天。跟往常一樣,道格拉斯·桑德爾斯(Douglas Sonders)騎著他心愛的摩托,從紐約市出發,穿行經過曼哈頓西區高速公路。就這樣,

2023-11-09

(LevelsofAGI:OperationalizingProgressonthePathtoAGI),提出對通用人工智能(AGI)的更清晰定義,制定類似於長期以來,AGI都是一個含義模糊的概念,粗略可以將其理解為“和人類差不多聰明”。研究團隊在論文中寫道,“我們希望提供