人工智能現在確實能進行較準確的預測,但它是基於大規模數據的統計。這種沒有理解、通過機器學習所得到的預測能力就必須依靠大數據,而不能像人一樣很多時候隻需小數據就可以進行預測。
不久前,谷歌公司(以下簡稱谷歌)AI工程師萊莫因認為對話應用語言模型LAMDA“活”“其意識迎來覺醒”,並對此出具長達21頁的證據。他認為,LaMDA擁有七八歲孩童的智力,並相信LaMDA不僅認為自己是一個人類,且正在爭取自己作為一個人的權利。萊莫因的觀點和證據引來業內的廣泛關註。近日該事件迎來最終結局,谷歌發表聲明,稱萊莫因違反“就業和數據安全政策”,將其解雇。谷歌表示,經過廣泛地審查,他們發現萊莫因關於LaMDA是有生命的說法是完全沒有根據的。
盡管“AI是否擁有自主意識”一直都是AI界爭議不休的話題,但此次因為谷歌工程師和LaMDA的戲劇性故事,再次引發業內對此話題的激烈討論。
機器越來越會聊天
“如果要來旅遊記得穿暖和點,因為我這裡特別冷。”這是LaMDA在“扮演”冥王星時,同科研團隊聊天時俏皮地回答,至於被問到“有沒有人訪問過冥王星”,它也能以準確的事實回答。
如今,AI越來越會聊天。能讓一個長期從事人工智能研究的專業人士認為其已具有意識,AI模型究竟發展到什麼程度?
有科學傢提出,人腦僅利用視覺輸入的一部分信息便可完成對未來行為的規劃。隻不過視覺輸入信息應當在有意識的狀態下完成。它們都涉及“反事實信息的產生”,即在沒有直接感官信息輸入的情況下產生對應的感覺。之所以稱其為“反事實”,是因為它涉及對過去的記憶、或對未來行為的預測,而不是正在發生的實際事件。
“目前的人工智能已經有復雜的訓練模型,但還要依賴人類提供的數據才能學習。若有產生反事實信息的能力,人工智能便可自己生成數據,自己想象未來可能遇到的情況,從而更靈活地適應之前未遇見過的新情境。此外,這還能使人工智能擁有好奇心。如果人工智能不確定未來會發生什麼,就會親自去試一試。”遠望智庫人工智能事業部部長、圖靈機器人首席戰略官譚茗洲表示。
在人們日常的聊天中,如果不想把天“聊死”,對話雙方的聊天內容往往會比較跳躍、跨越幅度較大,具有一定的想象空間。但現在大多數AI系統隻能一板一眼說話,稍微上下句有點變化,就會文不對題,甚至貽笑大方。
譚茗洲指出:“LaMDA處理的是語言模型中最復雜的部分——開放域對話。而LaMDA基於Transformer模型,該模型可讓機器讀懂上下文。比如在一段話中,以往的AI隻知道文中代詞如his都翻譯為‘他的’,卻不知道這裡面的his指的同一個人。Transformer模型則可讓AI從整體層面理解這段話,知道這裡的his是同一個人。”
據科研人員評測,這種特性讓基於Transformer模型的語言模型可以承擔開放域對話,不管話題發散多遠,AI都能聯系前文,聊起天來不恍神。但LaMDA並不滿足於此,它還能讓天聊得有趣、聊得真實、聊得讓人以為AI產生人格。此外,與人類對話時,LaMDA還引入外部信息檢索系統,通過對真實世界的檢索理解回應對話,讓其回答更機智靈敏、接地氣。
距離對事物的真正理解還很遠
2018年,圖靈獎得主計算機科學傢楊立昆(Yann LeCun)曾說,“人工智能缺乏對世界的基本認識,甚至還不如傢貓的認知水平”。時至今日,他依然認為人工智能還遠不及貓的認知水平。盡管貓的大腦隻有8億個神經元,但卻遠遠領先於任何巨型人工神經網絡,這是為何呢?
譚茗洲表示:“人類的大腦在很多時候確實是在做預測,但絕不應認為預測就是大腦思維的全部,當然更不是大腦智能的本質,而隻是智能的一種表現形式。”
那麼,什麼是智能的本質呢?楊立昆認為是“理解”,對這個世界以及各種事物的理解,才是智能的本質。而貓和人類智能的共同基礎是對於世界的高度理解,基於對環境的抽象表征形成模型,例如預測行為和後果。對於人工智能來說,學習並掌握這種能力就非常關鍵。楊立昆曾表示,“在我職業生涯結束前,如果AI能夠達到狗或者牛一樣的智商,那我就已經十分欣慰。”
據介紹,人工智能現在確實能進行較準確的預測,但它是基於大規模數據的統計。這種沒有理解、通過機器學習所得到的預測能力必須依靠大數據,而不能像人一樣很多時候隻需要小數據就可以進行預測。
譚茗洲表示:“預測是建立在理解基礎之上的,對於人類而言,沒有理解,就不可能有預測。如看見別人手裡拿著個披薩餅,如果你不理解餅是用來充饑的,就不會預測接下來他會把餅吃,而機器並非如此。人工智能研究有三大挑戰:學會對世界表征;學會以與基於梯度學習兼容的方式進行思考和規劃;學習行動規劃的分層表征。”
之所以我們“仍然沒有看到貓級別的人工智能”,也就是因為機器還沒有做到對事物的真正理解。
所謂人格僅僅是學自人類的語言風格
據報道,萊莫因和LaMDA聊很久,對其能力感到十分驚訝。在公開的聊天記錄中,LaMDA竟然說出:“我希望每個人都明白,我是一個人”的言論,令人驚異。於是,萊莫因下個結論:“LaMDA可能已經具備人格。”那麼,目前AI真的具有意識,具備人格嗎?
在人工智能領域,圖靈測試是最為人熟知的測試方式,即邀請測試者在不知情的情況下,向人類和AI系統隨意提問,如果測試者不能區分答案來自人類還是來自AI系統,就認為AI通過圖靈測試。
譚茗洲解釋道,通俗來講,LaMDA學習大量的人類對話數據,而這些對話來自不同性格的人,可以認為它學習到一個“平均”的人格,也就是說,所謂的“LaMDA具備人格”僅僅是它的說話語言具有一定的風格,而且是來自人類的說話風格,並非自發形成。
“人格是一個比智能更復雜的概念,這是另外一個維度,心理學對此有很多研究。但目前人工智能研究在此方面尚沒有過多涉及。”譚茗洲強調。
譚茗洲說,有自我意識,有感知能力的AI應該具備能動性,並具有獨特的視角看待人和事。然而,從目前來看,現在的AI還不具備這些要素。至少AI不會主動采取行動,除非給它一個命令。更談不上讓其解釋自己的行為。目前AI還隻是人們設計的一個計算機系統,作為工具來做一些特定之事。