評論:ChatGPT情商很高 但並不適合當搜索引擎


4月26日消息,美媒評論稱,目前基於大型語言模型的人工智能工具,例如ChatGPT,更擅長共情而不是提供準確的事實信息。這是因為設計者優先考慮流暢性而非準確性。加之訓練數據庫中包含大量情感信息,將大型語言模型植入搜索引擎的競爭毫無意義。

以下是翻譯內容

今年早些時候,普林斯頓大學計算機科學教授阿爾溫德·納拉亞南(Arvind Narayanan)為自己四歲的女兒開發支持ChatGPT的語音界面。這不僅是一個實驗,更是因為納拉亞南相信,人工智能機器人有一天會成為女兒生活中的重要組成部分。

納拉亞南的女兒天生好奇,經常問他有關動物、植物和人體的問題。他認為OpenAI開發的ChatGPT可以提供有用的答案。令他驚訝的是,一旦他告訴系統正在與小孩對話,這款聊天機器人就能表現出無可挑剔的共情能力。

納拉亞南的女兒問:“燈滅會怎麼樣?”

“燈滅,天就黑,可能會有點嚇人,”ChatGPT用人工合成的聲音回答道。“但別擔心!”“你可以做很多事情來讓自己在黑暗中感到安全舒適。”

ChatGPT隨後提出一些使用夜燈的建議,並最後提醒:“在黑暗中感到有點害怕很正常。”這個解釋顯然讓納拉亞南的女兒感到很安心。

微軟和谷歌正急於使用大型語言模型技術來強化搜索引擎。但有充分的理由認為,相比於提供事實性信息,這項技術更適合作為人們情感上的伴侶。

聽起來可能很奇怪。但無論是谷歌的Bard還是微軟的新Bing,這種人工智能在用於搜索信息時都出現一系列尷尬的事實性錯誤。Bard在首次公開演示時就給出關於詹姆斯·韋伯太空望遠鏡的錯誤信息,而新Bing也搞錯一大堆財務報表數據。

當人工智能聊天機器人用於搜索時,出現事實性錯誤的代價很高。Replika是一款人工智能應用程序,下載量已經超過500萬次。該應用程序的創始人尤金尼亞·庫伊達(Eugenia Kuyda)表示,當人工智能被設計成伴侶時,出現錯誤的代價就要低得多。她說:“這不會影響用戶體驗,不像搜索,小小錯誤就會破壞用戶對產品的信任。”

谷歌前人工智能研究員瑪格麗特·米切爾(Margaret Mitchell)曾與人合作撰寫過一篇關於大型語言模型風險的論文。她表示,大型語言模型根本“不適合”作為搜索引擎。這些大型語言模型之所以會出錯,是因為訓練所用的數據經常包含錯誤信息,而且模型也沒有基本事實來驗證所生成的內容。此外,大型語言模型的設計者可能優先考慮生成內容的流暢性,而不是準確性。

這也是這些工具特別擅長迎合用戶的原因之一。畢竟,目前大型語言模型都是從網上抓取文本進行訓練,其中包括推特和Facebook等社交媒體平臺上發佈的情緒性內容,以及Reddit和Quora等論壇上的個人心理疏導內容。電影電視劇中的臺詞、小說中的對話,以及關於情商的研究論文都進入訓練數據庫,這使得這些工具更具有同理心。

據報道,一些人把ChatGPT當成機器人治療師來使用。其中一位說,他們這樣做是為避免成為別人的負擔。

為測試人工智能的共情能力,人們對ChatGPT進行一次在線情商測試。結果顯示,它表現出色,在社會意識、關系管理和自我管理方面都獲得滿分,在自我意識方面隻是略有差池。

從某種程度上來說,ChatGPT在測試中的表現比一些人還要好。

雖然一臺機器能為人們帶來共情感受有點不真實,但確實有一定道理。人們天生需要社會聯系,人類大腦也有能力反映他人感受,這意味著即使對方沒有真正“感受”到我們的想法,我們也能獲得一種理解感。人類大腦中的鏡像神經元會在我們感受到他人的共情時被激活,給我們帶來一種彼此相連的感覺。

當然,共情是一個涉及多方面的概念,要想真正體驗到這種感覺,人們還是需要與真正的人進行交流。

倫敦國王學院臨床心理學傢托馬斯·沃德(Thomas Ward)研究軟件在心理治療中的作用,他警告人們不要想當然地認為,特別是在心理問題很嚴重的情況下,人工智能可以充分滿足人們在心理健康方面的需求。例如,聊天機器人可能無法理解人的情感復雜性。換句話說,ChatGPT很少說“我不知道”,因為它在設計上傾向於自信而不是謹慎回答問題。

人們也不應該把聊天機器人作為發泄情感的習慣性渠道。沃德說:“在將人工智能聊天機器人視為消除孤獨方式的世界裡,微妙的人際關系,例如拉住手或明白何時說話何時傾聽,可能會消失。”

這可能會最終導致更多問題。但就目前而言,人工智能在情感方面的技能至少要比它們掌握的事實更可靠。(辰辰)


相關推薦

2023-02-16

元。當地時間2月7日,微軟緊隨其後發佈新品,推出新版搜索引擎必應和Edge瀏覽器,新增和ChatGPT一樣的AI語言模型GPT3.5,微軟稱之為“普羅米修斯”,並表示比ChatGPT更強大。微軟演示中,搜索“宜傢雙人座椅是否適合2019年款本

2024-01-13

搓到拋光”、白好幾度”。雖然這種深度搓澡確實很爽,但並不是所有人都適合這種,尤其是南方來的,畢竟一方水土養一方人”,而專傢也提醒稱,有兩類人不適合參與其中。專傢稱,身上搓出來的泥”主要是上皮角質層,一

2024-01-23

刪掉的詞,也就是通過刪掉一些詞來「破壞」文本。像 ChatGPT 和 Lama 這樣的模型都是這樣訓練的。你隻需刪掉最後一個詞就能訓練它們。從技術上講實際上更復雜,不過大體就是這麼個意思,訓練這個系統來重建輸入中缺失的信

2022-07-19

訟的聲明中,該公司表示:“雖然我們不對未決訴訟發表評論,但我們對二氧化鈦的使用符合FDA的規定。”糖果召回順便說一下,這一消息是在Mars Inc.5月份對包括Skittles在內的糖果進行大規模召回後的兩個月傳出。那次行動是在

2023-05-27

到AI的威脅,辛頓不惜從谷歌離職。即便是目前最火熱的ChatGPT開發商OpenAI,其CEO薩姆阿爾特曼(Sam Altman)也在國會作證時承認,AI可能會對世界重大傷害,並呼籲建立一個國際機構,對AI進行適度監管。鳳凰網科技《AI前哨》對此將

2024-02-08

racy and Technology)的一項民意調查,29% 的孩子表示曾使用 ChatGPT 解決焦慮或心理健康問題,22% 的孩子使用 ChatGPT 解決與朋友的問題,16% 的孩子使用 ChatGPT 解決傢庭矛盾。一些人認為這種風險越來越大。去年夏天,由於擔心剽竊

2024-03-06

Google今天將矛頭對準搜索引擎優化行業,該行業將搜索排名遊戲化,破壞Google搜索結果的價值。通常,消費者在網上搜索產品推薦、評論、交易和折扣時,返回的都是低質量或垃圾網站,這些網站盡管排名很高,但並沒有提供他

2023-02-14

歧。事實上,ChatGPT落地沿著最小阻力前行:第一步是重塑搜索引擎,畢竟搜索原本就是知識的積累與運用,與ChatGPT的底色相契合。但僅僅這樣是不夠的,ChatGPT要從二維向三維,釋放更大的商業潛力、賦予更好的生活方式,唯有

2023-02-22

供產品和服務。Magi 創始人季逸超開發過基於機器學習的搜索引擎,現在正參與一個名為Open Assistant的開源項目,其目標是讓更多人有機會使用類似ChatGPT的對話式AI。談及在國內AI創業的挑戰,Peak告訴我,過往AI在一個行業能不能

2024-06-07

手機的第二品牌,但其主要市場主要集中在非洲等地區,並不面向中國市場。根據多傢機構發佈的2024年第一季度全球手機市場調研數據,傳音在全球智能手機市場的排名為第四,出貨量達到2860萬部,市場份額為10%,實現86%的強

2023-03-03

名為Bard的對話聊天機器人;微軟推出由AI驅動的新版必應搜索引擎和Edge瀏覽器。

2022-10-23

有成功,但我們必須進行試驗,因為目前形式的音樂業務並不適合每個人。”Bono隨後指出庫克“可能是本能的保守”的領導風格,雖然他想嘗試解決一個問題但他仍然準備承擔起責任。該節選還討論十年前的另一次蘋果CEO互動

2023-04-07

Francesco Marconi)稱,如果AI聊天機器人收集信息的方式與搜索引擎相同,那麼“出版商應該有能力控制他們的內容中哪些部分是可見的、可能會被收錄,同時將其他內容標記為受限內容”。然而,他也表示:“這些人工智能系統

2023-10-14

綠化植物,需要註意的事,銀杏果是一種中藥材,有毒,不適合當做幹果類零食吃,過量食用可斃命。還要註意的一點就是:生銀杏果的毒性比熟白果的毒性更強。此外,除別吃外,銀杏果盡量也不要觸碰,尤其是老人孩子或者