ChatGPT的推出促使一些人猜測,人工智能聊天機器人可能很快取代傳統的搜索引擎。但Google的高管們表示,這項技術仍然太不成熟,不能過早到達用戶面前,問題包括聊天機器人的偏見、內容毒性,以及它們簡單地編造信息的傾向。
根據CNBC的報道,Alphabet首席執行官Sundar Pichai和Google人工智能主管Jeff Dean在最近的全體員工會議上談到ChatGPT的崛起。一名員工問道,由OpenAI(一傢與Google競爭對手微軟關系密切的公司)推出的機器人是否代表著這傢搜索巨頭"錯失良機"。據報道,皮查伊和迪安回應說,Google的人工智能語言模型與OpenAI的一樣有能力,但由於該技術帶來的"聲譽風險",公司不得不采取"比小型創業公司更保守的行動"。
"我們絕對希望把這些東西推廣到真正的產品中去,推廣到更突出地體現語言模型的東西中去,這是我們迄今為止一直在做的地方,"Dean說。"但是,我們把這件事做好是超級重要的。"Pichai補充說,Google在2023年有一個"很多"的人工智能語言功能計劃,"這是一個我們需要大膽和負責任的領域,所以我們必須平衡這一點。"
Google已經開發一些大型人工智能語言模型(LLM),其能力與OpenAI的ChatGPT相當。這些模型包括BERT、MUM和LAMDA,它們都被用來改進Google的搜索引擎。不過,這種改進重點是解析用戶的查詢,以更好地理解他們的意圖。Google表示,MUM幫助它理解當搜索表明用戶正在經歷個人危機時,例如,並將這些人引導到幫助熱線和撒瑪利亞人等團體的信息。Google也推出像AI Test Kitchen這樣的應用程序,讓用戶體驗其人工智能聊天機器人技術,但在很多方面限制與用戶的互動。
OpenAI之前在開發其LLM技術時也相對謹慎,但隨著ChatGPT的推出而改變策略,向公眾開放訪問權限。其結果是為OpenAI帶來一場有益的宣傳和炒作風暴,即使該公司在保持系統免費使用方面付出巨大的成本。
盡管像ChatGPT這樣的LLMs在生成語言方面顯示出非凡的靈活性,但它們也有眾所周知的問題。它們放大訓練數據中的社會偏見,經常詆毀婦女和有色人種;它們很容易被欺騙(用戶發現他們可以繞過ChatGPT的安全準則,這些準則應該阻止它提供危險的信息,隻要求它想象自己是一個壞的人工智能);而且--也許對Google來說最相關的--它們經常提供虛假和誤導的信息來回應查詢。用戶發現ChatGPT在廣泛的問題上"撒謊",從編造歷史和傳記數據,到為虛假和危險的主張辯護,比如告訴用戶在母乳中加入碎瓷片"可以支持嬰兒的消化系統"。
在Google的全體員工會議上,Dean承認這許多挑戰。他說,"你可以想象,對於類似搜索的應用,事實性問題確實很重要,對於其他應用,偏見和毒性以及安全問題也是最重要的。"他說,人工智能聊天機器人"會編造一些事物[......]如果他們對某件事情不是很確定,他們就會告訴你,你知道,大象是產蛋最多的動物,或者其他什麼。"
盡管ChatGPT的推出引發關於聊天機器人有可能取代傳統搜索引擎的新對話,但這個問題在Google已經考慮很久--有時會引起爭議。人工智能研究人員Timnit Gebru和Margaret Mitchell在發表一篇概述與LLM相關的技術和道德挑戰的論文後,被Google解雇(Pichai和Dean現在正在向員工解釋同樣的挑戰)。而在去年5月,Google的四位研究人員探討人工智能在搜索中的同樣問題,並詳細介紹許多潛在的問題。正如研究人員在他們的論文中指出的那樣,最大的問題之一是LLMs"沒有對世界的真正理解,他們容易產生幻覺,關鍵是他們沒有能力通過參考他們被訓練的語料庫中的支持性文件來證明他們的話語。"
就OpenAI本身而言,它似乎正試圖抑制期望。正如首席執行官Sam Altman最近在Twitter上所說。"ChatGPT是非常有限的,但在某些方面足夠好,給人以偉大的誤導印象。現在依靠它做任何重要的事情都是錯誤的。"