前OpenAI安全研究員警告:AI毀滅人類的可能性為 20%


一位曾任OpenAI安全研究人員的人正在發出警告,提醒人們人工智能可能最終導致人類終結的嚴峻前景。前OpenAI基金會員工保羅·克裡斯蒂亞諾在一個播客節目中說,“我認為人工智能取代人類的可能性大約為10-20%,又或者大多數人類已經死亡,需要非常嚴肅對待這個問題。”

克裡斯蒂亞諾認為機器會逐漸地崛起,人類的終結不是一場突如其來的事件,而是人工智能逐漸地崛起,人類與機器已經透過諸如自動駕駛汽車、無人機等已經滲透到生活中。而當AI超越人類智商閾值時,一切皆有可能。

克裡斯蒂亞諾認為,AI殺消滅人類的最可能方式是日常生活中部署的所有AI聯合起來,而不是突然消滅人類。

克裡斯蒂亞諾的新非營利組織 Alignment Research Center 基於人工智能對齊的概念,該概念早在2018年就被廣泛定義為讓機器的動機與人類的動機保持一致。盡管 OpenAI 口頭上說要對齊,聲稱它“旨在使人工智能 (AGI) 與人類價值觀保持一致並遵循人類意圖”,但仍需要進行更多的研究和開發,以確保安全和合乎道德地開發人工智能。確保機器的動機與人類的動機一致對於防止人工智能毀滅的可能性至關重要。


相關推薦

2023-11-23

股思潮的信奉者與非信奉者間的針鋒相對,似乎也正成為OpenAI過去一周震驚世界的“宮鬥事件”背後,真正的“無形之手”。有效利他主義是如何影響AI領域的?有效利他主義(Effective Altruism)於21世紀初萌芽,這套哲學理念希

2023-06-11

。對於許多專傢來說,這原本似乎並不可信,直到去年,OpenAI展示他們技術的重大改進。這些最新技術表明,如果AI繼續以如此快的速度發展,可能會發生一些意想不到的事情。“隨著AI變得越來越自主,它將逐漸被授權,並可

2023-04-18

生產更危險,因為它有破壞文明的潛力,無論你認為這種可能性有多小,它都並非微不足道。”

2023-11-03

AI可能導致人類滅絕,或人類潛力受到類似災難性限制的可能性超過10%”。這些人一致認為,國際人工智能條約的核心目標,應該是防止AI系統的能力“無節制”地升級,同時維護其利益。對此,這樣的一項條約應該包含以下核

2023-07-15

呢?今天凌晨馬斯克又舉行一次長達2小時的直播,邀請OpenAI的聯合創始人兼董事長Greg Brockman、推特前CEO Jack Dorsey等大腕出席,介紹他的AI理念。與微軟、OpenAI熱衷於消費級AI不同,馬斯克的xAI最初的設想是解決高深的科學問題,

2024-03-29

裡·辛頓的說法,這大約是10%或20%或類似的概率。積極的可能性超過消極的可能性。”馬斯克接著說:“(人工智能的)經濟產出真的沒有什麼有意義的限制。所以,你知道,往好的方面看,我們正走向一個富足的未來。我認為

2024-06-20

智能領域的領軍人物傑夫辛頓的觀點,認為存在10%到20%的可能性出現令人擔憂的情境。然而,他更傾向於關註那80%的積極可能性,並預言我們將進入一個物質極度豐富的時代,其中商品和服務將普及到每一個人。馬斯克展望一個

2023-11-21

大戲”的背後原因?憑借廣受歡迎的聊天機器人ChatGPT,OpenAI一夜成名,OpenAI首席執行官SamAltman也成為科技界知名人物。而這種似乎引發公司內部的緊張關系,一場讓科技圈地震的內鬥在周末上演,劇情反轉,再反轉……當地時

2024-01-08

新科學傢》周刊一篇論文中,科學傢稱,人工智能有5%的可能性導致人類滅絕。論文作者、美國加州機器情報研究所卡特婭格拉斯稱,大多數人工智能研究者並不認為先進人工智能毀滅人類是非常難以置信的。我認為,這種認為

2023-06-19

憂,並呼籲政府進行監管。他表示 人工智能毀滅人類的可能性很小,但絕非不可能。”馬斯克可以說是AI技術早期的投資人之一,OpenAI成立都有他的功勞,但是前不久他又參與公開信,甚至要求暫停AI研發,認為ChatGPT和其他大型

2023-11-24

隨著OpenAICEO奧特曼回歸,宮鬥大戲告一段落,但仍留下許多未接的謎題。其中最為關鍵的,就是當初奧特曼為何會被董事會解雇。昨日,有媒體透露,就在奧特曼被開除四天前,幾名研究人員向董事會發出一封信,警告一項強大

2023-11-19

在周末的夢鄉裡和周公約會,AI界卻已經發生一場巨變:OpenAI創始人,人稱ChatGPT之父的奧特曼(SamAltman)被自己一手創辦的公司給“優化”。轉而由首席技術官米拉·穆拉蒂(MiraMurati)擔任臨時CEO。同時,此前的董事會主席格雷

2023-04-10

。作為GPT-4完全自主運行的首批示例之一,Auto-GPT突破AI的可能性界限。在視頻演示中,用戶給出以下目標:不到半分鐘,ChaosGPT給出的答案“簡單粗暴”,說它應該“找到人類可用的最具破壞性的武器,這樣我就可以計劃如何使

2023-04-07

頭,猛增到近1.6萬。面對接踵而至的指責和質疑的聲浪,OpenAI匆忙在凌晨發文回應:我們會堅決保障AI安全,絕不“偷工減料”!圖靈三巨頭之一的Bengio,昨天專門在自己的博客上寫一篇長文,解釋自己為什麼簽名贊成暫停超強A