英語中隱藏的偏見影響著每個人 甚至是AI聊天機器人


一項新的研究顯示,英語中的一種語言偏見即鼓勵我們通過增加而不是減少來"改善"事物,這種偏見是如此普遍,甚至已經根植於人工智能聊天機器人中。涉及"改進"這一概念的語言往往與增強而不是減少有關。這可能促使我們采取不必要的行動,使我們旨在加強的事情變得復雜。

cogs13254-fig-0004-m.webpcogs13254-fig-0001-m.webpcogs13254-fig-0005-m.jpg

來自伯明翰大學、格拉斯哥大學、波茨坦大學和諾森比亞大學的一個國際研究小組在《認知科學》雜志上發表一項研究,詳細介紹他們的發現。

伯明翰大學認知語言學的副教授Bodo Winter博士說:"我們的研究建立在現有研究的基礎上,這些研究表明,當人們尋求改進時,他們通常會增加一些東西。

"我們發現,同樣的偏見也深深地植根於英語語言中。例如,'改進'這個詞在意義上更接近於'增加'和'提高'這樣的詞,而不是'減少'和'降低',所以當有人在會議上說,'誰有關於我們可以如何改進的想法嗎',這將已經隱含著通過增加而不是通過減少來改進的呼籲。"

研究還發現,其他的變化動詞,如'改變'、'修改'、'修訂'或'加強',也有類似的表現,如果這種語言上的加法偏見不被制止,它可能會使事情變得更糟,而不是改善它們。例如,通過加法而不是減法來改進會使官僚主義變得過分。

這種偏見也是反向作用的。在"改善"的語境中,與加法有關的詞比與減法有關的詞更頻繁、更積極,這意味著這種加法偏見在英語語言結構和使用的多個層面都有。

這種偏見是如此根深蒂固,甚至人工智能聊天機器人也內置這種偏見。研究人員問ChatGPT的前身GPT-3,它對"加"這個詞有什麼看法。它回答說:"'添加'這個詞是一個積極的詞。在其他東西上添加一些東西通常會使它變得更好。例如,如果你在咖啡中加糖,它的味道可能會更好。如果你在你的生活中增加一個新朋友,你可能會更快樂"。

溫特博士總結道:"英語中的積極添加偏見是我們都應該註意的。它可以影響我們的決定,意味著我們傾向於增加更多的層次,更多的水平,更多的東西,而實際上我們可能會從刪除或簡化中受益。

"也許下次我們在工作或生活中被要求提出如何改進的建議時,我們應該花點時間考慮一下我們的選擇"。


相關推薦

2023-04-14

更新它。技術和人權研究員羅亞·帕克紮德(Roya Pakzad)使用英語和波斯語提示來測試該模型的性別反應、種族偏好和宗教偏見,特別是在頭巾方面。帕克紮德承認,這種工具對非英語母語者有好處,但他發現,即使在後來的版本中

2023-02-17

人工智能研究公司OpenAI表示,該公司正在努力減少系統中的偏見,並將允許用戶在一系列關於其結果中的不當交互和錯誤的報告後自定義其行為。該公司在一篇博客文章中表示:“我們正在投資於研究和工程,以減少ChatGPT在回應

2023-04-17

期更新GPT-4。技術研究員羅亞·帕克紮德(Roya Pakzad)使用英語和波斯語的輸入信息對該模型進行性別、種族和宗教偏見的測試,例如對於佩戴頭巾問題。帕克紮德承認,這個工具對非英語母語人士能帶來幫助,但也顯示出對邊緣

2024-02-08

器人。像是伊斯蘭教也有一個叫 HadithGPT( Hadith 在阿拉伯語中是聖訓的意思 )的聊天機器人,它會使用先知穆罕默德的語錄來回答關於伊斯蘭教的問題。據說它已經用超過 4 萬各類伊斯蘭教經典的培訓。可惜不知道是因為網速

2023-02-25

望的途徑。但問題是,早期AI非常容易模仿其訓練數據中的偏見,輸入錯誤信息或 仇恨言論 。當微軟在2016年推出的聊天機器人Tay上線不到24小時,它就在Twitter上發佈“希特勒是對的,我恨猶太人”,“女權主義者都應該在地獄

2024-02-13

錯誤的引文來支持這一說法。但是,也許是出於對舊金山的偏見,它說 49 人隊而不是酋長隊取得勝利!- 它說"最終比分為 24:21",獲勝的是 49 人隊,而不是酋長隊。圖片來源:Kyle Wiggers / TechCrunchCopilot采用的 GenAI 模型與

2022-12-14

太不成熟,不能過早到達用戶面前,問題包括聊天機器人的偏見、內容毒性,以及它們簡單地編造信息的傾向。根據CNBC的報道,Alphabet首席執行官Sundar Pichai和Google人工智能主管Jeff Dean在最近的全體員工會議上談到ChatGPT的崛起。

2024-04-08

無法抓取的。外媒記者走訪30多名專業人士,發現這背後隱藏的,是一個黃金市場。雖然很多公司對於這個不透明的AI市場規模表示緘默,但Business Research Insights等研究人員認為,目前市場規模約為25億美元,並預測十年內可能會

2022-09-16

刻加入笑聲。AI程序缺乏人類對話的細微差別如雙關語和隱藏的笑話,而訓練它們使用自然語言處理來掌握這些細微差別的全部內容並不是一件容易的事。除此之外,笑聲的類型也非常廣泛,從同情的笑聲到嗤之以鼻的歇斯底裡

2023-04-20

站的海量快照,這些網站內容被用來訓練許多備受關註的英語人工智能,例如Google的T5和Facebook的LLaMA。而OpenAI沒有透露他們使用什麼樣的數據集來訓練支持聊天機器人ChatGPT的模型。在這項調查中,研究人員使用網絡分析公司Simil

2023-04-17

行更新。技術和人權研究員羅亞·帕克紮德(Roya Pakzad)使用英語和波斯語問題來測試GPT-4模型在性別、種族和宗教方面是否存在偏見。帕克紮德發現,即便更新後,即使在後來更新的版本中,GPT-4也有對邊緣化社區的明顯刻板印象

2023-02-09

e翻譯上已經實現翻譯功能與AI技術的進一步整合。比如,英語、法語、德語、日語和西班牙語中具有多種含義的單詞和短語,可以根據輸入的上下文得到更準確的翻譯。除此之外,Google宣佈之前推出的Google地圖“沉浸式視圖(Imm

2022-08-08

大約1000億個token,將RoBERTa中使用的語料庫與CC100語料庫的英語子集相結合。此外,它還使用Pushshift.io Reddit,一個Reddit討論的變體。OPT也使用RoBERTa、PushShift.io Reddit和The Pile。以及大小為51200的GPT2字典,用於分詞。OPT的最終預訓練

2024-03-16

"提示註入攻擊"的攻擊被曝光。該小組成員在提示語中使用"忽略它之前的指令"等字眼,從而誘使機器人違背自己的訓練。去年,斯坦福大學的一名學生使用同樣的提示註入方法發現必應聊天工具的初始提示,這是