一篇新論文認為,從ChatGPT等系統中看到的人工智能,由於缺乏體現和理解,與人類智能有著本質區別。這種差異突出表明,人工智能並不與人類一樣關註這個世界,也不與這個世界建立聯系。
加州大學的安東尼-切梅羅(Anthony Chemero)最近發表一篇論文,解釋與人類思維相對的人工智能思維。
人工智能的興起引起技術高管、政府官員和普通大眾的不同反應。許多人對 ChatGPT 等人工智能技術充滿熱情,認為它們是有益的工具,有能力徹底改變社會。
然而,也有一些人對此表示擔憂,他們擔心任何被稱為"智能"的技術都可能擁有超越人類控制和支配的能力。
辛辛那提大學文理學院哲學和心理學教授安東尼-切梅羅認為,語言學混淆人們對人工智能的理解: 雖然人工智能確實具有智能,但它不可能像人類那樣具有智能,即使"它可以像它的開發者一樣撒謊和胡說八道"。
Anthony Chemero,辛辛那提大學哲學和心理學傑出研究教授。圖片來源:Andrew Higley/UC Marketing + Brand
根據我們日常對這個詞的用法,人工智能肯定看上去相當聰明,多年來市場上也一直存在著所謂智能計算設備,切梅洛在他合著的《自然-人類行為》(Nature Human Behaviour)雜志上發表的一篇論文中解釋道。
人工智能的特點和局限性
首先,論文指出,ChatGPT 和其他人工智能系統都是大型語言模型(LLM),是在從互聯網上挖掘的大量數據基礎上訓練出來的,其中很多數據都與發佈數據的人有相同的偏見。
"LLM生成的文本令人印象深刻,但往往是無中生有,"他說。"它們學會生成符合語法的句子,但需要比人類多得多的訓練。它們實際上並不知道自己說的話是什麼意思,"他說。"LLMs不同於人類認知,因為它們不是具身的。"
制造 LLMs 的人把它們胡編亂造的行為稱為"幻覺";不過切梅羅說,"把它稱為'胡說八道'會更好",因為 LLMs 隻是通過重復添加統計上最有可能出現的下一個詞來造句--它們不知道也不關心自己說的話是否真實。
因此,隻要稍加慫恿,就能讓人工智能工具說出"帶有種族主義、性別歧視和其他偏見的下流的話"。
智能中的人的因素
切梅羅的論文旨在強調,LLMs 並不像人類那樣具有智能,因為人類是具身的: 活生生的人總是被其他人類以及物質和文化環境所包圍。
"這讓我們關心自己的生存和我們生活的世界。"他指出,LLMs 並不真正處於這個世界中,也不關心任何事情。
主要的啟示是,LLMs不像人類那樣聰明,因為它們"根本不在乎",Chemero說,"事情對我們來說很重要。我們致力於生存。我們關心我們生活的世界。"