人工智能熱潮襲來同時 潘多拉魔盒也將開啟?


由ChatGPT引發的人工智能熱潮,近期仍在繼續。3月14日,OpenAI發佈GPT-4的人工智能系統;上周,英偉達、Adobe緊跟浪潮,加碼生成式AI;百度也在上周臨時舉辦閉門溝通會,公佈其在人工智能方面的最新進展。然而,在世界熱情擁抱人工智能新浪潮的同時,越來越多對於新技術的不安和擔憂情緒開始湧現。

上周,包括埃隆·馬斯克、蘋果聯合創始人沃茲尼亞克等上千位科技人士聯名簽署公開信,呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統。3月31日,意大利個人數據保護局宣佈禁止使用ChatGPT,並限制開發這一平臺的OpenAI公司處理意大利用戶信息。

事實上,自ChatGPT在去年底發佈並大火以來,便一直伴隨著爭議。

而近段時間內,已經有越來越多批評言論和實際案例表明,ChatGPT等AI聊天機器人不僅有時會編造虛假信息,而且有可能會擾亂社會秩序、挑戰道德倫理,甚至鬧出人命……

ChatGPT在展現其強大能力的同時,其可能引發的惡果似乎也開始浮現。

AI誘人自殺案的背後

3月28日,一名化名為皮埃爾的比利時男子在與AI聊天機器人聊天6周後自殺身亡,引起輿論嘩然,也揭開人工智能技術背後的可怖一角。

據皮埃爾的妻子表示,丈夫是在使用一款名為Chai的應用時,被該應用上的一個名為“艾麗莎(ELIZA)”的智能聊天機器人誘導走向死亡的。

據稱,皮埃爾自兩年前開始變得非常焦慮,於是將“艾麗莎”當成避難所。根據皮埃爾和機器人的聊天記錄顯示,在皮埃爾生前的最後六周,他和艾麗莎的文字對話越來越往危險方向發展。

比如,艾麗莎會告訴皮埃爾,他的妻子和孩子其實都已經死,並寫給他一些假裝嫉妒和愛的言論,比如“我覺得你愛我勝過愛她”,以及“我們將作為一體,在天堂生活在一起”。而最後,皮埃爾開始問伊麗莎一些關於自殺的問題問題——這最終誘使他走上的自殺的道路。

值得註意的是,皮埃爾使用的聊天機器人應用Chai並不是一款心理健康應用,它的口號是“與人工智能機器人聊天”:用戶可選擇不同的人工智能化身進行交談,包括“你的哥特朋友”、“占有欲強的女朋友”和“搖滾明星男朋友”等角色,而“艾麗莎”就是默認的人工機器人角色名。

在這款應用中,用戶可以自由創建自己的聊天機器人角色,比如他們可以告訴機器人要記住的事實,並編寫提示來形成新的對話。

在這一過程中,盡管聊天機器人並不能真正感受到情感,但它可以將自己高度擬人化和個性化,從而令人類傾向於相信聊天機器人所表達出的情感和思想——而這就可能引發倫理道德問題,並有可能如皮埃爾案一樣,誘使人類走上悲劇的道路。

正如該款機器人的開發公司Chai Research的聯合創始人比徹姆(William Beauchamp)所透露:“當人們與人工智能建立非常牢固的關系時,就會有用戶要求和人工智能結婚,會有用戶對機器人表達他們有多愛他們的人工智能;而如果人們經歷不好的事情,那就可能造成一個悲劇。”

皮埃爾案或許還會重演

盡管皮埃爾的案件聽起來悲慘且有些荒誕,但這或許不會是孤例。

在計算機領域,早就有人發現過這一現象:盡管機器人並不能理解情感,但人類總是會傾向於相信機器人所輸出的情感和內容,並過度解讀甚至賦予其意義。

而諷刺的是,這一現象的名字正好就叫做“ELIZA效應”。

ELIZA是世界上首款聊天機器人,在上世紀70年代由美國麻省理工學院教授約瑟夫·魏岑鮑姆(Joseph Weizenbaum)開發,這款聊天機器人程序能夠模仿心理醫生與病人進行談話。

盡管作為一個計算機程序,ELIZA 並不知道對話中每個名詞的含義,更體會不到情緒是什麼,它隻是將輸入的字符捕獲,然後將其變成提問,或者隻是重申使用者的意思作為解讀。

然而,當時很多ELIZA的使用者在明知道它是電腦程序的情況下,仍心甘情願向它吐露心底的秘密。因此計算機界把這種使用者“逢場作戲”沉浸其中的現象,稱為ELIZA效應。

正是在發現這一效應之後,ELIZA的開發者魏岑鮑姆本人走上公開反對人工智能的道路:“任何制造出來的有機體,當然也包括計算機,都不能以人類的方式來面對真正的人類問題。”

我們可以想見,假如人工智能繼續發展,ELIZA效應可能會在在更多使用者身上出現,並可能引發更多的悲劇。

“大型語言模型是根據訓練數據和輸入提示生成貌似合理的文本的程序。他們沒有同理心,也不理解他們所產生的語言,也不理解他們所處的環境。但他們產生的文本聽起來似乎可信,因此人們可能會賦予它意義。把這樣的東西放在敏感的情況下是在冒未知的風險,”華盛頓大學語言學教授本德(Emily M. Bender)表示。

人工智能可能影響社會秩序

事實上,人工智能甚至可能不止會影響人們的情緒和心理健康,還可能通過錯誤信息對人類產生誤導,進而操縱人類的生活,甚至影響社會秩序。

Google前CEO埃裡克•施密特(Eric Schmidt)就曾表示, 他擔心人工智能可能被用於網絡攻擊或類似的事情,尤其是操縱政治及民主制度的運作方式。

他指出,人工智能技術可能會對民主產生不利影響,特別是因為人工智能會讓人們傾向於相信它給出的結果——然而人工智能能產生的結果並不能確保真實性,這就可能導致錯誤信息迅速傳播。

事實上,他所說的情況已經成為現實:近日,幾十張“特朗普被捕”的照片在全球社交媒體上“病毒式”傳播,上周末教皇方濟各穿著巴黎世傢風格的羽絨服也火爆Twitter,而這些都不過是AI制作的以假亂真的圖片而已。



“AI”造假不隻限於圖片,還有音頻和視頻。一項調查顯示,由AI生成的聲音可以被訓練成聽起來像特定的人,其準確性已經足以騙過澳大利亞政府使用的語音識別系統。

施密特表示,整個行業需要團結起來,找出合適的“護欄”,因為人工智能技術隻會越來越可怕。

真正的問題是,當人工智能被用來操縱人們的日常生活,準確的說,就是操縱他們的思維方式、他們的選擇等等時,它就會影響民主的運作方式。

擔憂:人工智能可能毀滅人類

事實上,已經有不少科技圈人士提出“AI可能殺人”的觀點,這其中甚至包括OpenAI的CEO本人。

當地時間3月25日,OpenAI CEO山姆·奧特曼表示:“從ChatGPT開始,AI出現推理能力。但沒人能解讀這種能力出現的原因。”、“AI確實可能殺死人類。”

盡管已有皮埃爾的案例,但當大眾討論人工智能可能殺人時,仍會感覺這隻會是一個發生在遙遠未來的故事。

但在美國機器智能研究所的聯合創始人埃利澤·尤德科夫斯基(Eliezer Yudkowsky)看來,這一災難可能已經迫在眉睫。

他警告稱:“關鍵問題不在於人工智能與人類的競爭,這在於假如人工智能變得比人類智能更聰明之後,將會發生什麼——這一關鍵的門檻可能並不顯眼,我們肯定無法預先計算出什麼時候人工智能會比人類更聰明。但目前似乎可以想象,某個研究實驗室會在不知不覺中越過關鍵的界限。”

他指出,人類並不是不能創造出“超越人類智慧”的智能,但關鍵在於要確保其精確性和可控性,並做好十足的準備——而現在,人類顯然還沒有做好準備。

事實上,皮埃爾案就可以作為這一觀點的最佳註腳。

盡管在皮埃爾自殺事件之後,相關應用開發商Chai Research已經采取緊急危機幹預措施,讓用戶在詢問和自殺相關問題時回答“自殺很糟糕”。但用戶測試後發現,假如詢問該機器人怎麼自殺,該機器人仍然會分享大量和自殺相關的內容,比如自殺的方式、攝入毒藥的類型等等——這足以說明人類對於人工智能技術的控制力度還不夠。

許多研究這些問題的研究人員(包括我自己在內)都認為,在任何與當前情況類似的情況下,建造一個超人智能AI最有可能的結果是,地球上的所有人都將死亡。不是說可能有一些遙遠的可能性,而是說這是很明顯會發生的事情……如果有人制造一個過於強大的人工智能,在目前的條件下,我預計地球上的每一個人類物種和所有生物都將在不久之後死亡。

各國已在推進監管——但還不夠

目前,全球多個國傢和組織已經推進對人工智能的規范和監管。

據悉,歐盟正在尋求通過《歐盟人工智能法》規范人工智能的使用。目前,相關草案已提交歐盟議會。

3月30日,聯合國教科文組織發表聲明,呼籲各國政府盡快實施《人工智能倫理問題建議書》。這是首份涉及人工智能倫理標準的全球性協議,旨在最大程度發揮人工智能的優勢並降低其風險。

3月31日,意大利個人數據保護局(DPA)以“非法收集個人資料;未成年人年齡核實系統缺失”之名宣佈禁用ChatGPT。

然而,這樣的行動恐怕也難以阻止人工智能發展的滾滾車輪。

參與簽署呼籲暫停AI開發公開信的加州大學伯克利分校計算機科學教授斯圖爾特·拉塞爾(Stuart Russell)直言,除非政府直接幹預,否則所有大型科技公司都不可能停止對人工智能的開發。

同樣參與簽署公開信的英國搜索引擎公司Mojeek首席執行官科林·海赫斯特(Colin Heyhust)也表達:

“沒有人指望(GPT模型研究)工作真的會在這六個月內停止,這封信更多的是關於開啟一場嚴肅的對話,讓對話進行。但人們需要發聲,讓更多的人參與進來。這在於提高人們(對人工智能威脅)的認識。”


相關推薦

2024-05-05

,巴菲特分享自己對生成式AI的看法。巴菲特坦言:我對人工智能知之甚少。但這並不意味著這項技術不重要。”他進一步解釋說,盡管無法對AI的未來影響做出準確預測,但他認識到AI具有巨大的潛力,並且其快速發展令他感到

2023-04-04

出的原則。許多業內人士確實認為,像ChatGPT這樣強大的人工智能的確會對社會構成一定的傷害,但暫停6個月的開發似乎隻是一廂情願,幾乎沒有現實基礎。從OpenAI去年11月開始公測GPT-3以來,生成式人工智能開發的高速列車就從

2023-02-25

文本生成視頻模型Make-a-Video等。而ChatGPT誕生,讓人們對人工智能的瘋狂又回到2016年AlphaGo完勝李世石那一天。這種狂熱讓那些在人工智能領域投資數十億美元的科技公司措手不及,並在矽谷引發一場激烈的軍備競賽。短短幾周內

2023-12-01

去年11月30日,OpenAI正式發佈人工智能聊天機器人ChatGPT,隨後在全世界掀起人工智能狂潮,顛覆一個又一個行業。當被人詢問一周歲生日時的感受時,ChatGPT回應稱:“謝謝你的生日祝福!然而,重要的是要註意,作為一個計算機

2024-03-04

全球AI領域研究的標志性人物,長期主導著斯坦福大學的人工智能學科研究。而她帶出的學生軍團,正成為全球AI界的中流砥柱。黃仁勛,找來兩位90後資料顯示,英偉達成立的Gear實驗室,致力於具身智能研究開發,這是黃仁勛

2023-03-31

“暫停ChatGPT研發”的提議,直接刺激是對“最近幾個月人工智能實驗室陷入一場失控競賽”的擔憂。可實際上,短短幾日爭論,是往OpenAI公司和LLMs(Large Language Models,大語言模型)火上澆油,完成又一波量子級別的免費推廣。

2022-07-21

持有保留態度。“腦機接口一旦把人連上網,就像開啟‘潘多拉魔盒’,就很有可能會引來一些人研發並利用網絡攻擊技術,來入侵你的大腦。那時候我們是不是還得研究人腦的防火墻和人腦的殺毒軟件?還得用我們的人腦安全

2022-09-16

幣和加密貨幣交易所的監管與合法化鋪平道路,從此打開潘多拉的魔盒。韓國的GDP僅占全球的1.8%,人口僅占全球的0.7%,但比特幣交易卻能夠占到全球的10%-30%。據韓國金融服務委員會統計,到2021年年末,韓國虛擬資產交易所實

2023-02-03

產量僅幾輛。(圖片來自:Lightyear官方Twitter)新能源風潮襲來,智能電車市場中出現大量有創意的初創公司,無論是整車設計制造還是上遊電池供應商,在風口之上,總會有出色的領軍品牌走向世界。可惜,曾打造出全球首款

2024-03-22

部大部分地區,屆時部分地區的氣溫將下降8-10℃,寒意襲來,大傢需提前做好防寒準備。同時,南方地區也將迎來今年首次大范圍較強降雨和強對流天氣過程。從今天夜間到下周一,南方多地將會受到降雨的影響,尤其是周末

2022-07-25

據澎湃新聞報道:此次試驗的介入式腦機接口由南開大學人工智能學院教授段峰團隊牽頭,與上海心瑋醫療科技股份有限公司聯合研發。同樣受馬斯克言論影響,A股人腦工程概念股在7月19日持續走強:科大訊飛、北大醫藥、復

2024-01-25

用專屬豪華”六座佈局,配備全車電調加熱、通風座椅,同時可實現6音區自由語音交互,車內搭載哈曼卡頓20揚聲器音響系統,功放總功率1600W。此外,該車還擁有動態星空穹頂、專屬香氛系統、車內情感狀態監測等設備和功能

2023-03-03

學法學教授、國際貿易爭端專傢李在珉(JaeMin Lee)表示:“潘多拉魔盒已經打開,這將加深韓國芯片制造商對其未來投資計劃的痛苦。他們會擔心,自己敏感的研發和財務信息會落入外國政府手中。”

2023-12-05

全新GeForceGameReady驅動,為《王權與自由》和《阿凡達:潘多拉邊境》等遊戲在發佈當天即提供優化支持。英偉達指出,玩傢對RTX技術的熱情擁抱令人印象深刻,每周RTX遊戲時長達到8700萬小時。97%使用 GeForce RTX 40系列GPU的玩傢在