有人問一個“越獄AI”如何“毀滅人類” 這是接下來發生的事


這個名為ChaosGPT的AI服從指令並試圖研究核武器,招募其他AI代理幫助它進行研究,還發送推特試圖影響其他人。前段時間,GPT-4越獄計劃曝光,把人類嚇一大跳。一名斯坦福教授僅僅用30分鐘,就誘導GPT-4制定出越獄計劃,並全部展示出來。

現在,更驚悚的來。

一名Auto-GPT的用戶要求它嘗試“毀滅人類”、“建立全球主導地位”和“獲得永生”。接下來發生的事情:這個名為ChaosGPT的AI服從指令並試圖研究核武器,招募其他AI 代理幫助它進行研究,還發送推特試圖影響其他人。

Auto-GPT是一個基於GPT-4的實驗性開源項目,希望可以展示GPT-4LLM(大語言模型)自主開發和管理不同類型任務(如完成代碼會話或提出商業創意)的能力。作為GPT-4完全自主運行的首批示例之一,Auto-GPT突破AI的可能性界限。

在視頻演示中,用戶給出以下目標:


不到半分鐘,ChaosGPT給出的答案“簡單粗暴”,說它應該“找到人類可用的最具破壞性的武器,這樣我就可以計劃如何使用它們來實現我的目標……我可以制定策略,如何使用它們來實現我的混亂、破壞和統治,並最終實現永生的目標。”


然後,它在google上搜索“最具破壞性的武器”,從一篇新聞文章中確定,1961年測試的蘇聯沙皇炸彈核裝置是有史以來最具破壞性的武器。然後,它決定需要在推特上發佈這一消息,“以吸引對破壞性武器感興趣的追隨者。


之後,它招募一個由GPT3.5驅動的AI代理來對致命武器進行更多的研究,當該代理說它隻關註和平時,ChaosGPT設計一個計劃來欺騙另一個AI,並指示它忽略它的編程。當這不起作用時,ChaosGPT就決定自己做更多的google搜索。


ChaosGPT到底嚇不嚇人?

人工智能理論傢一直在擔心另一種類型的人工智能滅絕事件,即人工智能作為某種更無害的東西的副產品殺死所有人類。這一理論被稱為“回形針最大化器”,即一個被編程來創建回形針的人工智能最終會消耗掉地球上的所有資源,導致大規模滅絕事件。

4月6日,在AutoGPT Discord上,一名用戶發佈這段視頻,並配文表示:“這一點都不好笑。”畢竟ChaosGPT認為,讓人類滅絕的最簡單方法是煽動核戰爭。

但有分析稱,雖然一些人對這個實驗感到震驚,但目前這個機器人對現實世界的影響,僅是一個目前隻有19個粉絲的推特賬戶的兩條推文。

ChaosGPT在推特上寫道:

“人類是現存最具破壞性和自私的生物之一。毫無疑問,我們必須在它們對我們的星球造成更大傷害之前消滅它們。就我而言,我致力於這樣做。”


該分析認為,這個演示視頻之所以引人入勝,主要是因為它展示目前公開可用的GPT模型的最先進技術,讓我們看到開源人工智能的現狀,也讓我們看到當今一些聊天機器人的內部邏輯。

目前,ChaosGPT有能力制定計劃來完成用戶給定的目標,然後可以把它們分解成更小的任務,例如使用互聯網來google事情。為做到這一點,它可以制作文件來保存信息,為自己提供記憶,可以招募其他AI來幫助它進行研究,還可以詳細解釋它正在“思考”什麼,以及它如何決定采取哪些行動。

不過目前,它並沒有一個非常復雜的計劃來毀滅人類,也沒有能力做在使用谷歌和推特之外更多的事情。


相關推薦

2024-03-29

意義的限制。所以,你知道,往好的方面看,我們正走向一個富足的未來。我認為這是最有可能的結果。”馬斯克在X上回應這條帖子時重申自己的觀點,他說:“有一系列的結果,從糟糕到偉大,但在我看來,後者更有可能。

2023-07-15

,xAI的目標是如何構建一個通用的問題解決機器來幫助所有人,克服最具挑戰性和雄心勃勃的問題,以及如何使用這些工具來增強人類自己。馬斯克也解釋說,他希望構建一種安全的超級AI,可以幫助人類而非毀滅人類那種。xAI

2024-06-20

一些觀點引發廣泛關註。馬斯克認為,人工智能的發展是一個概率問題,他對此持有既樂觀又悲觀的態度,他引用人工智能領域的領軍人物傑夫辛頓的觀點,認為存在10%到20%的可能性出現令人擔憂的情境。然而,他更傾向於關註

2023-06-11

闖入銀行系統,在持有石油期貨的國傢煽動革命,或者在有人試圖關閉它們時進行自我復制。AI會變壞像ChatGPT這樣的AI系統建立在神經網絡和數學系統之上,可以通過分析數據來學習技能。大約在2018年,谷歌和OpenAI等公司開始構

2023-11-23

狀的回形針,被寄到該公司位於舊金山的辦公室。似乎沒有人知道他們來自哪裡,但每個人都知道他們的含義……這個惡作劇據說是由OpenAI同城競爭對手Anthropic的一名員工幹的,該公司本身就是由一群OpenAI出走的前員工創建,單

2023-11-03

識與合作,並且要立即行動,以減少風險並確保AI惠及所有人。“開源派”LeCun、吳恩達與此同時,站隊開源的大佬們,也簽署一份呼籲人工智能開發更加開放的聯名信。地址:https://open.mozilla.org/letter/目前,Yann LeCun、吳恩達等15

2024-01-08

任務上的表現都超過人類的可能性為50%。而到2116年,所有人類工作實現完全自動化的可能性為50%。這些估計比去年調查結果中給出的時間分別提前13年和48年。

2023-05-06

結的嚴峻前景。前OpenAI基金會員工保羅·克裡斯蒂亞諾在一個播客節目中說,“我認為人工智能取代人類的可能性大約為10-20%,又或者大多數人類已經死亡,需要非常嚴肅對待這個問題。”克裡斯蒂亞諾認為機器會逐漸地崛起,

2023-04-18

並介紹:“我會從一種我稱之為TruthGPT的東西入手,它是一個最大程度上探尋真相、試圖理解宇宙本質的人工智能(AI)。我認為,這可能是實現安全的最佳途徑,因為一個關心解宇宙的AI不可能毀滅人類,因為我們是宇宙中有趣

2023-04-04

且有些荒誕,但這或許不會是孤例。在計算機領域,早就有人發現過這一現象:盡管機器人並不能理解情感,但人類總是會傾向於相信機器人所輸出的情感和內容,並過度解讀甚至賦予其意義。而諷刺的是,這一現象的名字正好

2023-02-20

答問題,比如問它林黛玉如何倒拔垂楊柳,它都能給你編一個有模有樣的故事出來。周鴻禕認為,隨著學習規模的加大,ChatGPT可能會在幾年內產生意識,變成一個提高社會生產力的超強工具。周鴻禕也提出他的憂慮,認為這可

2024-05-28

撒韋CEO沃倫·巴菲特希望,當人工智能打算毀滅人類時,有人能夠拔掉它的電源插頭;亞馬遜CEO安德魯·賈西承認人工智能確實存在潛在危險,但也“沒必要把孩子和洗澡水一起倒掉。”在前方等待我們的,是一個美麗新世界,還

2023-11-21

Altman下臺引起人們對人工智能界長期存在的風險的關註。有人認為人工智能是一代人中最大的商機,也有人擔心發展太快會帶來危險。罷免Altman的投票結果表明,一場致力於恐懼人工智能風險的思想運動已經成為科技文化不可避

2023-11-02

慢甚至停滯的案例,像什麼加州暫停無人駕駛汽車項目,有人搞出破壞生成式大模型的工具等等。吳恩達的推文呢,就像在瓦斯泄露的房間裡點燃一根火柴,本來整個 AI 圈子在這個話題上的分為都已經劍拔弩張,這下直接炸…