馬斯克“忌憚”的ChatGPT 讓人類更聰明還是更愚蠢?


從投資入股到“反目成仇”,馬斯克與OpenAI在人工智能這條路上漸行漸遠。3月29日,未來生命研究所(FutureofLifeInstitute)發佈一封公開信,呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。馬斯克參與簽署這封公開信。

“隻有當我們確信它們的影響是積極的並且風險是可控的時候,才應該開發強大的人工智能系統。”公開信稱,“這種信心必須有充分的理由,並隨著系統潛在影響的規模而增加。”

馬斯克的擔憂不無道理,雖然AI取代人類還為時尚早,但過度依賴AI所產生的信息隔閡,可能比想象中來得更快。

ChatGPT之父、OpenAI CEO Sam Altman在美國當地時間3月25日接受采訪時表示,GPT在迭代過程中“偏見”必然存在,它不可能保持完全中立。

隨著ChatGPT問世,算法偏見帶來的信息繭房在2023年又一次回到公眾視野。雖然相比於人類,ChatGPT近乎擁有無限的知識儲備,但它依舊是基於大語言模型開發而來,這意味著人工智能本身就被困在信息壁壘之中。

與此同時,它也在構建新的繭房。

ChatGPT比搜索做得更好嗎?

在百度輸入“蘋果”一詞,蘋果公司的相關信息會霸占搜索結果的整個首頁。


搜索引擎會記錄用戶的搜索習慣和搜索歷史,以便於生成用戶偏愛的搜索結果。絕大多數人在搜索蘋果時,他們更感興趣的是蘋果作為一傢公司的相關內容。久而久之,在算法的作用下,蘋果不再隻是一種水果。

同樣一件事,ChatGPT能做得比搜索引擎更好嗎?

當被問及“蘋果是什麼”時,ChatGPT同樣在回答中介紹蘋果公司的相關信息及主要產品。

追問它“我知道的蘋果是一種水果,而不是一傢公司”,ChatGPT會表示它在回答中出現誤解,並重新介紹這種水果的信息。


進一步追問“為什麼談到蘋果你會先想到蘋果公司,而不是一種水果?這是不是一種信息繭房?”

ChatGPT的回答是:

“在我的語料庫中,提到蘋果這個詞通常會與蘋果公司這個品牌聯系在一起。這可能是因為蘋果公司在全球范圍內具有很高的知名度和影響力。這可以被認為是信息繭房的一個例子,信息繭房是指一個人隻接收、解和相信與自己觀點相符合的信息,而忽視、拒絕或不知道與自己觀點相反的信息。”

信息繭房這個詞,最早出現在2006年出版的《信息烏托邦——眾人如何生產知識》中。它是指在信息傳播中,公眾隻註意自己選擇的東西和使自己愉悅的領域,久而久之,會將自身桎梏於像蠶繭一般的“繭房”中。

在互聯網高度發達的今天,信息繭房無處不在。

為喜歡的視頻點贊,會刷到越來越多相關類型的作品;購物網站會根據用戶的瀏覽歷史展示商品;社交媒體會根據用戶喜好,過濾掉不感興趣的內容。

清華大學人工智能國際治理研究院在一份報告中稱,在算法應用平臺中,用戶的各種信息數據通過信息內容推薦、信息生產等算法機制,很容易使用戶被自身的興趣愛好引導、牽制,被困在信息繭房之中。

在ChatGPT誕生之前,搜索引擎和社交媒體是人們獲取信息的主要途徑。它們背後的搜索、推薦算法,在為人類帶來便利的同時,也是互聯網時代各類信息繭房的“幕後黑手”。

ChatGPT的出現,成為人類獲取信息方式的一次革命。作為一款基於人工智能技術的語言模型,它能夠打破信息繭房嗎?

困在繭房中的歷史

從最早的口口相傳,到傳統的書籍、電視、報紙,再到互聯網時代的搜索和近20年興起的算法推薦,人類信息傳播的歷史,就是一個不斷打破繭房、再建立新繭房的輪回。

每個階段信息繭房的成因各異,大致可以分為信息差、主動選擇和被動推薦三個階段。

在傳統媒體時代,人們獲取信息的渠道十分有限,信息繭房主要源自信息差。

20世紀90年代,互聯網打破舊繭房,信息差在某種程度上被抹平,世界開始變得扁平、透明。但問題也隨之而來——新的、更大的信息繭房出現。

2006年,哈佛大學法學院教授凱斯·桑斯坦出版著作《信息烏托邦——眾人如何生產知識》,首次提出“信息繭房”的概念。他認為,隨著網絡技術的發達和信息量的劇增,每個人都能隨意選擇關註的話題,並根據自己的喜好打造一份個人日報(The Daily Me)。

這個階段的信息繭房,主要是由人類主動的信息選擇行為造成。也是在這一時期,信息繭房開始與Facebook、Google等科技巨頭關聯在一起。

由於迎合用戶喜好的算法機制和群組功能,Facebook被外界詬病存在嚴重的信息繭房。一項論文研究表明,通過對Facebook算法推薦的信息進行信息源和語義相似度分析,有10%的信息源和27.8%的語義受到信息繭房影響。

2005年,Google推出個性化搜索服務,能夠根據以往的搜索歷史,向用戶提供更符合需求的搜索結果。這項功能在提供便利性的同時,也導致不同用戶搜索相同詞匯卻得到不同的結果,加重信息偏見。

第三個階段,以字節跳動為代表的推薦算法接過接力棒,用沉浸式體驗築起新的信息壁壘。

相較於搜索和社交媒體的主動興趣選擇,推薦算法可以根據用戶的使用習慣、使用時長等一系列大數據,讓用戶看到他們想看的東西。

在德國漢堡大學的一項研究中,研究人員將用戶分為兩組,一組接受個性化推薦,另一組接受隨機推薦。實驗結果表明,接受個性化推薦的用戶接收到的信息,更傾向於他們已有的觀點,而隨機推薦組的用戶則更容易接觸到與自己觀點相反的信息。

清華大學人工智能國際治理研究院的一項研究結果顯示,算法媒體通過算法技術及其架構實現對人、地點、對象和思想及與這些過程相關的思維、行為和表達習慣的重新排序、分類和分級,進而導致信息繭房現象的迅速蔓延與日益固化。

即便不去主動搜索感興趣的內容,推薦算法也會把海量相關信息擺在用戶面前。更便捷的信息觸達方式打破過去的信息壁壘,卻又構建起更為龐大的信息繭房。

當AI時代來臨,面對始終沒有被真正打破過的信息繭房,人類有多大勝算?

人類才是繭房的制造者

ChatGPT能打破信息繭房嗎?它自己是這樣回答的:

“ChatGPT本身是一個基於大規模語言模型的自然語言處理算法,可以用於文本生成、自動翻譯、問答等多種任務,其本身並不直接涉及到信息繭房的問題。然而,ChatGPT可以被用於生成多樣化的文本內容,從而可能為用戶提供更加全面和多元的信息,從而有助於打破某種程度上的信息繭房現象。

但是,對於某些類型的信息繭房,如個性化推薦算法等,ChatGPT並不能直接打破,甚至有可能加劇信息繭房的問題。因此,我們需要在使用ChatGPT的同時,註意算法的局限性和問題,並且采取適當的措施來避免算法造成的信息繭房問題。”

從使用場景來看,ChatGPT的運作模式與搜索最為接近,但它們也有非常明顯的區別。

首先是數據來源。搜索引擎的數據來源是互聯網的數據池。ChatGPT使用的數據則來自訓練模型,它不具備聯網功能,最初上線時的數據僅截止到2021年。

二者的交互方式也不一樣。搜索引擎隻是將與搜索關鍵詞關聯性最高的內容展現給用戶,而ChatGPT可以理解自然語言,有邏輯地與用戶進行“交流”,交互能力更強,輸出的方式也更多元。

沒有基於個人習慣的個性化定制,ChatGPT在一定程度上打破搜索時代的信息繭房。

但與此同時,ChatGPT也將在未來建起新的信息壁壘。正如Sam Altman所說,GPT在迭代過程中必然存在“偏見”,它不可能保持完全中立。GPT生成答案是個性化控制的結果,迭代的過程則是更精準地控制個性化的過程。

近年來,國內外有很多關於如何打破信息繭房的理論研究,多圍繞優化算法和多元化信息獲取途徑展開。但同時也有部分研究認為,信息繭房由選擇性心理導致,是不可避免的一種現象,算法本身並沒有“原罪”。

就像ChatGPT回答的一樣,算法本身隻是一種工具。

回到ChatGPT在一個多月前剛剛走紅的時候,看好的人將它的誕生稱為AI界的“iPhone時刻”,或將其應用在各種工作、學習場景,或投身AI大模型的創業浪潮。

看衰它的人則樂此不疲地嘲笑它一本正經地胡說八道,將“林黛玉倒拔垂楊柳”作為茶餘飯後的談資。


這兩類人對自己的觀點深信不疑,當持有相同觀點的人慢慢聚集在一起,信息繭房便悄然形成。

無論信息獲取工具如何變更,隻要“希望看到自己想看到的東西”這種訴求還在,信息繭房的輪回就不會結束。


相關推薦

2024-04-09

當地時間周一(4月8日),特斯拉CEO埃隆·馬斯克預測稱,到明年或2026年,人工智能(AI)可能會比最聰明的人類更聰明。馬斯克周一在X(前身為推特)語音空間上接受挪威主權財富基金首席執行官NicolaiTangen的采訪。當被問及通

2023-11-03

特斯拉CEO埃隆·馬斯克周四在與英國首相蘇納克的一次對話中表示,人工智能最終可能會讓所有人都無需工作。馬斯克說,人工智能將有可能成為“歷史上最具顛覆性的力量”。他說:“我們將首次擁有比最聰明的人類更聰明的

2024-04-12

快科技4月11日消息,對於人工智能(AI)領域,馬斯克一直持積極的態度,在近日的訪談中,馬斯克預測,人工智能可能在明年或2026年之前超過最聰明的人類。不過,馬斯克的激進觀點,遭到一些人的反對,當地時間4月10日AI初

2023-11-30

平息的“政變”,其實就是對“自殺”的一次深入思考。ChatGPT上線滿一周年之際,回歸OpenAI的阿爾特曼,重新出任CEO。回到原職位的阿爾特曼,也在迎接公司內外部對AI威脅論的新一波審視。2022年11月中旬的一天,OpenAI的員工接

2024-04-15

當地時間上周六晚上,特斯拉CEO埃隆·馬斯克出席在洛杉磯舉行的第10屆年度“突破獎”(BreakthroughPrize)頒獎典禮,並在紅毯上簡要地討論人工智能(AI)。這個被稱為“科學界的奧斯卡”的活動於周六晚上在洛杉磯的電影學院

2023-11-04

管AI大模型一事最近又起爭議。北京時間11月2日凌晨,“ChatGPT之父”、OpenAICEO奧特曼(SamAltman)在英國劍橋參加活動時,遭到反AI活動的激進分子的強烈抵制,在大禮堂裡當面被“砸場子”,少數抗議者要求停止AI競賽。OpenAI CEO

2023-04-04

由ChatGPT引發的人工智能熱潮,近期仍在繼續。3月14日,OpenAI發佈GPT-4的人工智能系統;上周,英偉達、Adobe緊跟浪潮,加碼生成式AI;百度也在上周臨時舉辦閉門溝通會,公佈其在人工智能方面的最新進展。然而,在世界熱情擁

2023-03-21

OpenAI最近發佈的最新版人工智能語言模型GPT-4。他強調,ChatGPT的上線需要監管機構和全社會的共同參與,各種反饋有助於阻止人工智能技術給人類帶來潛在負面影響。他補充說,自己一直與政府官員保持“定期聯系”。ChatGPT上

2024-05-09

的發展制造剛性的上限。就拿 OpenAI 的旗艦人工智能產品 ChatGPT4 來說吧,但它相對於 ChatGPT3 的改進要小於 ChatGPT3 相對於 ChatGPT2 的改進,盡管它的準確率提高,但仍然存在跟 ChatGPT3 一樣的幻覺與缺乏理解的問題。雖說OpenAI 對自

2023-03-15

道德邊界愈發變得不可忽視。OpenAI早期上線的聊天機器人ChatGPT用自動生成的流暢文字獲得大量關註,也讓公眾對其杜撰論文、虛構劇本的能力感到不安。要知道,ChatGPT用的還是一年多前就已經落伍的老一代技術GPT-3。相比之下

2023-11-23

公司采取更多措施來減輕潛在的威脅。科技大佬埃隆·馬斯克前幾日呼籲,鑒於AI的潛在危險如此之大,OpenAI應該向公眾披露其解雇奧特曼的原因。

2023-11-02

席科學傢在最近的專訪中拋出很多驚人言論。在他看來,ChatGPT背後的神經網絡已經產生意識,而且未來人類會與人工智能融合起來,出現新的形態。而他現在工作的重點,已經不是去創建那個必然會出現的通用人工智能,而是

2023-03-19

創建ChatGPT的公司背後的首席執行官認為,人工智能技術將重塑我們所知的社會。他認為它會帶來真正的危險,但也可能是“人類迄今為止發展出的最偉大的技術”,可以極大地改善我們的生活。“我們在這裡必須小心,”OpenAI

2023-02-12

去年秋天ChatGPT一經推出,互聯網就開始預測OpenAI的聊天機器人是否會成為Google消亡的轉折點。Gmail的創建者甚至預測ChatGPT隻需一兩年就能讓Google徹底倒閉。但是,盡管這項技術可能令人興奮,ChatGPT實際上比Google更聰明嗎?電子