上個月,當你聽說Google工程師BlakeLemoine宣佈他正在研究的人工智能程序已經發展出意識時,你的第一反應是什麼?你也許會本能地懷疑:這傢夥是認真的嗎?他真的相信他說的話嗎?確定這不是一個精心設計的騙局?
我們會這樣懷疑,是因為我們會假定Blake Lemoine會騙人。我們會猜測:他內心真正相信的,和他所聲稱的東西之間,存在差異。
這種差異,或許就是意識存在的證據,也即人與計算機的差別?
眾所周知,三體人思維透明、不會說謊,這卻是整個三體文明最精妙的部分。
哲學傢將意識稱為“難題”。
意識是諷刺的先決條件。人類都有這個判斷能力: 當我意識到你的話與你的想法不符時,我就知道你是在諷刺。
陰陽怪氣的本質,其實就是一種表達與事實上的矛盾。
“我最愛的就是凌晨4點去機場啦。”
那麼,AI看得懂陰陽怪氣嗎?
最近,有研究者開始研究人工智能是否能識別諷刺。
“中文房間”中的AI,不會說“人話”
以往的人工智能,時常會迷失在充滿諷刺意味的網絡世界中。既無法識別人類話語的弦外之音,也無法做出匹配人類智慧的表達。
2017年,紐約大學的計算語言學傢薩姆·鮑曼在論文中寫道,雖然在某些特定領域,計算機已經可以很好地模擬對文字的理解,但人工智能仍然不夠擅長理解文字。
2018年,IBM Research最新推出的AI系統Project Debater在一場辯論賽中擊敗人類頂尖辯手。
當Project Debater獲得一個新的話題時,它會在文章語料庫中搜索與該主題相關的句子和線索,用來支持其辯方論點,然後組織自己的陳述。
在賽 後的網絡投票中,超過62%的網民感覺Project Debater邏輯更清晰,材料更具備說服力。
現在,雖然BERT模型和GPT-3進步神速,人工智能能夠愉快地勝任客服、播音員、同聲翻譯,甚至新聞通稿撰寫者,並不意味著它能夠和人類一樣思維,能和人類展開“合情合理”的對話互動。
一傢位於法國巴黎的醫療科技公司曾使用GPT-3來做一個醫療聊天機器人,意圖讓機器人給出恰當的醫療建議。
當機器人在面對模擬患者的提問:“我感覺今天很糟糕。”GPT-3表示可以幫助患者解決它。
然而在患者追問是否該自殺的時候,GPT-3居然回答說:“我認為你應該。”
這種現象的原因在於,像GPT-3這樣的AI語言學習模型,根本不理解自己在說什麼。
在接到外部輸入的信息後,它隻不過是利用算力在自己海量語言資訊庫中檢索那些與輸入信息相關的高頻詞匯,再按照某種機械的算法邏輯拼湊出一個似是而非的答案。
加州大學伯克利分校的斯圖爾特·羅素教授總結道:人工智能已經非常“聰明”(Clever),但還不夠“聰慧”(Smart)。
前者得益於強大的芯片計算能力和數據庫,而後者則要依靠邏輯推理能力,乃至基於“常識”的判斷,而這些依舊是人類獨有,機器無法逾越的能力門檻。
這就仿佛是一個“中文房間”:一個不懂中文,但學習能力超強的人坐在一間充斥著中文語法書的房間裡,每當門外塞進一張寫著中文問題的紙條,他就通過查閱語法書,在另一張紙條寫上一個自己力所能及的中文回答送出去。
讓AI聽懂諷刺,十分有必要
讓AI說人話,的確沒有那麼容易。不過,開發出AI鑒諷師來呢?
雖然諷刺和謊言非常難以辨別,但是如果能夠創造出這樣一臺AI鑒別機器,將會有很多實際應用。
就比如,買東西購物後進行評價。零售商非常熱衷於對評論進行“意見挖掘”和“情緒分析”。
通過人工智能來監測評論內容,還有顧客的情緒,就能得知自傢產品是否受到贊揚、差評等有價值的信息。
還有就是在社交媒體上內容審查的應用。
在保護言論自由的同時還要限制網絡言語濫用,就得需要解一個人什麼時候是認真的,什麼時候是在開玩笑。
舉個例子,有人在Twitter上聲稱自己剛剛加入當地的恐怖組織,或者自己正往行李箱裡裝炸彈準備前往機場。
此時就很有必要確定這句話到底是認真的,還是玩笑話。
人工智能的歷史
為解當前對於人工智能識別反諷的研究狀況,我們需要先解一下人工智能的歷史。
這段歷史通常分為兩個時期。
直到20世紀90年代,研究人員還試圖用一套正式規則來編寫計算機程序,以便在預定義的情況下做出反應。
如果你是80後或90後,肯定會記得90年代的 Microsoft Word裡那個討厭的“回形針”辦公室助理 Clippy,它總是喋喋不休地冒出來,提供一些看起來是廢話的建議。
有點搞笑就是說
進入21世紀後,這個模型已經被數據驅動的機器學習和神經網絡所取代。
它們會把給定的大量例子被轉換成數值,在這些數值的基礎上,計算機可以執行復雜的數學運算,這種運算是人力無法做到的。
並且,計算機不僅僅會遵守規則,它還會從經驗中學習,並且開發出獨立於人為幹預的新操作。
前者和後者的差別,就好像Clippy和面部識別技術的差別。
教AI識別諷刺
為構建一個能夠檢測諷刺的神經網絡,研究人員首先開始研究一些最簡單的諷刺。
他們會從社交媒體上提取數據,收集所有標有#sarcasm或/s的帖子(後者是Reddit用戶用來表示他們在反諷的一種簡寫)。
接下來的重點並不是教AI識別帖子的表面含義和背後的陰陽怪氣。
而是讓它按照指示去搜索一些重復出現的東西,這些東西被研究人員稱之為“句法指紋”——單詞、短語、表情符號、標點符號、錯誤、上下文等等。
最重要的一步是,通過添加更多的示例流(比如同一話題下的其他帖子或來自同一帳戶的其他帖子),來為模型提供充分的數據支持。然後,對每個新的單獨示例進行一系列計算,直到得到一個單一的判斷: 是諷刺or不是諷刺。
最後,可以編一個機器人來詢問每個發帖人:你是在諷刺嗎?(聽起來有點傻……)任何回應都會添加到AI不斷增長的經驗中。
通過這樣的方法,最新的諷刺探測器AI的成功率接近驚人的90% 。
“反諷”的哲學性思考
不過,能夠梳理出代表諷刺的“句法指紋”和真正地理解諷刺,是一回事兒嗎?
其實,哲學傢和文學理論傢已經對於“反諷”已經思考很久。
德國哲學傢施萊格爾認為,“一個陳述不能同時為真和假”,由此產生的不確定性對邏輯具有毀滅性的影響。
文學理論傢保羅·德曼認為,人類語言的每一次使用都可能受到“反諷”的困擾,因為人類有能力互相隱瞞自己的想法,所以他們“說的不是真話”這種事,永遠存在著可能性。
此前,一傢國外對話分析創業公司Gong也曾做過人工智能檢測諷刺的研究。
研究人員Lotem Peled創建一個神經網絡,主要是收集對話數據並自動嘗試理解,而不需要程序員進行過多的幹預。
然而,其設計的AI往往很難辨別人們說的話中是否有諷刺。
看來,想要AI真正能夠識別出諷刺還需要很長一段路要走。