OpenAI董事會的鬧劇在上周引起不少人的關註,許多人都在關心董事會開除SamAltman的幕後原因,而有媒體曾報道,這與一項可能會威脅人類社會安全的技術突破有關。這一技術突破使OpenAI的高級研究人員建立一個被稱為Q*的模型,它可以解決以前從未見過的數學問題,這對現有的人工智能模型來說是一項艱巨的任務。
這無疑是件大事,但紐約大學心理學和神經科學教授 Gary Marcus 在5月參議院人工智能監管聽證會上與 Sam Altman一起發言時認為,人們不應該對此技術過於激動。
Gary Marcus表示,如今的大語言模型在很大程度上是一種預測機器,它們會根據訓練數據猜測下句話怎麼說更合適。事實上,Q*能夠解決它以前從未見過的數學問題,這可能是大型語言模型開始克服推理極限的一個標志。
即便如此,這也隻能說明大語言模型的推理能力達到小學生的水準。想要達到對人類造成威脅的程度還早著呢。而這也是Marcus的觀點,人們距離推出能力能夠媲美人類的人工智能還有很長的路要走。
Marcus認為,大語言模型的預測性質與符號人工智能(Symbolic AI)形成鮮明對比,後者是人工智能的一個古老分支,通過推理符號和符號之間的關系來解決問題。它類似於代數,"x "或"y "等符號代表數值,而加號或減號等符號則表示這些數值之間的關系。你可以將這種思維擴展到其他類型的邏輯問題中;例如,所有虎斑貓都是貓,而所有貓都是動物,因此虎斑貓一定是一種動物。
Marcus認為,未來的人工智能研究很可能會將生成式AI和符號式人工智能結合起來,就像人類同時使用直覺思維和分析思維一樣。
實際上,在 Marcus 看來,阻礙人們實現未來願景的主要障礙可能是另一個古老的問題:人際沖突。
Marcus長期以來一直是深度學習的批評者,而深度學習正是GPT-4這樣的大語言模型所采用的機器學習技術。這讓他與人工智能教父Geoffrey Hinton和Yann LeCun陷入水深火熱的學術鬥爭之中之中,三人曾在社交媒體上展開過激烈的“學術討論”。而隨著時間的推移,這三位科學傢之間的緊張關系導致AI學術領域的分裂,而這種分裂似乎在短期內無法彌補。
因此,在支持深度學習的人工智能研究人員和支持符號人工智能的研究人員跨過這些鴻溝攜手合作之前,人們不必擔心AGI會在短期內終結人類。