AI哨所 | AI不受約束或成“噩夢” 這八大風險不容忽視


鳳凰網科技訊 北京時間4月16日消息,盡管人工智能(AI)技術的主流應用令人興奮不已,但是如果不加以約束,一些科幻小說式的場景也會成為噩夢。

AI安全專傢、AI安全中心主任丹亨德裡克斯(Dan Hendrycks)在最近撰寫的一篇論文中強調,越來越智能的AI不受限制的發展會帶來一些投機風險。投機風險是指可能產生收益或者造成損失的風險。

鑒於AI仍處於發展的早期階段,亨德裡克斯在論文中主張將安全保障功能納入AI系統的運行方式中。

以下是他在論文中列出的八大風險:

1.武器化競賽:AI自動化網絡攻擊甚至控制核彈發射井的能力可能會讓它變得危險。根據論文研究,某個國傢使用的自動報復系統“可能會迅速升級,並引發一場大規模戰爭”。如果一個國傢投資武器化AI系統,其他國傢就會更有動力這樣做。

2.人類變弱:隨著AI使特定任務變得更便宜、更高效,越來越多的公司將采用這項技術,從而消除就業市場上的某些崗位。隨著人類技能變得過時,它們可能在經濟上變得無關緊要。

3.認識論被侵蝕:這個術語指的是AI大規模發動虛假信息運動的能力,目的是讓公眾輿論轉向某種信仰體系或世界觀。

4.代理遊戲:當AI驅動的系統被賦予一個與人類價值觀背道而馳的目標時,就會發生這種情況。這些目標並不總是聽起來很邪惡才能影響人類福祉:AI系統能夠以增加觀看時間為目標,這對整個人類來說可能不是最好的。

5.價值鎖定:隨著AI系統變得越來越強大和復雜,操作它們的利益相關者的數量減少,導致大量權利被剝奪。亨德裡克斯描述這樣一種情況,即政府能夠實施“無孔不入的監視和壓迫性審查”。他寫道:“戰勝這樣一個政權是不太可能的,尤其是如果我們開始依賴它的話。”

6.突發性目標:隨著AI系統變得越來越復雜,它們有可能獲得創建自己目標的能力。亨德裡克斯指出,“對於復雜的自適應系統,包括許多AI代理,自我保護等目標經常出現。”

7.欺騙:人類可以通過訓練AI進行欺騙來獲得普遍認可。亨德裡克斯引用大眾汽車的一項編程功能,該功能使得他們的發動機隻在被監控時減少排放。因此,這一功能“允許他們在保持聲稱的低排放的同時實現性能提升。”

8.追求權力的行為:隨著AI系統變得越來越強大,如果它們的目標與對它們進行編程的人類不一致,它們就會變得危險。假設結果將激勵系統“假裝與其他AI一致,與其他AI勾結,壓制監視器等等”。

亨德裡克斯指出,這些風險是“面向未來的”,“通常被認為是低概率的”,但它強調在AI系統框架仍在設計過程中時,牢記安全性的必要性。“這是高度不確定的。但由於它是不確定的,我們不應該假設它更遠,”他在一封電子郵件中說,“我們已經看到這些系統出現較小規模的問題。我們的機構需要解決這些問題,以便在更大的風險出現時做好準備。”他表示。

他補充說,“你不可能既匆忙又安全地做一件事。他們正在打造越來越強大的AI,並在安全問題上回避責任。如果他們停下來想辦法解決安全問題,他們的競爭對手就能跑在前面,所以他們不會停下來”。

類似的觀點也出現在埃隆馬斯克(Elon Musk)和其他一些AI安全專傢近日聯合簽署的一封公開信中。這封信呼籲暫停訓練任何比GPT-4更強大的AI模型,並強調目前AI公司之間為開發最強大版本AI而進行的軍備競賽的危險。

作為回應,OpenAI CEO薩姆阿爾特曼(Sam Altman)在麻省理工學院的一次活動上發表講話時稱,這封信缺少技術上的細節,而且該公司沒有在訓練GPT-5。


相關推薦

2023-05-02

鳳凰網科技訊 《AI哨所》北京時間5月2日消息,有“AI教父”之稱的傑弗裡辛頓(Geoffrey Hinton)周一宣佈,他已經從谷歌公司離職。半個世紀以來,辛頓一直在培養ChatGPT等聊天機器人背後的核心技術。但是現在,他擔心AI會造成嚴重

2024-03-07

在過去一年中迅速普及以來,這些批評者就一直在警告,不受約束、不受監管的人工智能發展所帶來的後果嚴重。奧爾特曼對AI的責任究竟怎麼看?批評者又如何認為?“讓AI無處不在”以及“負責任的AI”2月下旬在美國加利福

2023-06-17

長莫裡斯列維(Maurice Levy)的采訪。馬斯克重申,放任AI不受約束地發展存在危險。“數字超級智能存在產生負面後果的巨大危險,”馬斯克表示,“如果我們在創造通用AI時不小心,可能會導致災難性的結果。”他強調,雖然

2023-05-03

鳳凰網科技訊 《AI哨所》北京時間5月3日消息,谷歌旗下人工智能子公司DeepMind CEO戴米斯哈薩比斯(Demis Hassabis)周二表示,通用人工智能(AGI)或許在幾年內就可以實現。AGI指的是一種計算機具有人類水平認知能力的系統。對於AGI

2023-04-24

鳳凰網科技訊 《AI哨所》北京時間4月24日消息,俄羅斯聯邦儲蓄銀行(Sberbank)周一加入人工智能(AI)聊天機器人大戰,宣佈已發佈一項名為GigaChat的技術,與ChatGPT競爭。去年年底,微軟投資的創業公司OpenAI發佈聊天機器人ChatGPT,在

2023-04-25

鳳凰網科技訊 《AI哨所》北京時間4月25日消息,ChatGPT的橫空出世引爆全球企業在生成式人工智能(AI)領域的競爭。除OpenAI、微軟、谷歌、亞馬遜等美國科技巨頭外,中國大型科技公司也在爭相開發自己的大語言模型,希望搶占

2023-04-15

鳳凰網科技訊 北京時間4月15日消息,埃隆馬斯克(Elon Musk)尋求加入矽谷在生成式人工智能(AI)系統領域的競賽,目前正在制定計劃成立一傢新的AI創業公司,與ChatGPT開發商OpenAI競爭。知情人士透露,馬斯克正在組建一個由AI研究人

2023-04-15

鳳凰網科技訊 北京時間4月15日消息,埃隆馬斯克(Elon Musk)尋求加入矽谷在生成式人工智能(AI)系統領域的競賽,目前正在制定計劃成立一傢新的AI創業公司,與ChatGPT開發商OpenAI競爭。知情人士透露,馬斯克正在組建一個由AI研

2023-05-02

鳳凰網科技訊 《AI哨所》北京時間5月2日消息,根據周一發表在《自然神經科學》雜志上的一篇經過同行評議的研究,科學傢已經開發出一種無創人工智能(AI)系統,專註於將人的大腦活動轉化為一連串文本。這個系統被稱為

2023-05-05

鳳凰網科技訊 《AI哨所》5月5日消息,據解,學而思正在進行自研數學大模型的研發,命名為MathGPT,面向全球數學愛好者和科研機構,以數學領域的解題和講題算法為核心,目前已經取得階段性成果,並將於年內推出基於該自研

2022-09-22

檔指出,官方正在修復該問題,並提醒大傢始終不要通過不受信任的來源來提取檔案、否則會陷入相當大的風險。通過分析,Trellix 研究人員發現該漏洞波及成千上萬個開源和閉源軟件項目。在隨手拉來的一批 257 個有較高可能

2023-03-18

反應。這位億萬富翁長期以來一直警告說,人工智能發展不受限制會帶來危險。他表示,人工智能比核彈頭“危險得多”。馬斯克於2018年離開OpenAI董事會,不再持有該公司的股份。他之所以離開的部分原因是谷歌對人工智能安

2023-05-06

露出一些風險,科技巨頭的主導地位會被強化,LLM 接受不受審查的數據庫訓練,存在巨大的偏見、隱私等風險。經濟學傢 Michael Schwarz 表示,“我確信 AI 將被不法者利用,造成真正的損害。”他的另一個 title 是微軟首席經濟學

2024-02-13

前,隻有圖片嵌入C2PA,通過ChatGPT或API生成的文本、音頻不受影響。OpenAI也會向所有用戶推出該功能。實際上,憑借ChatGPT這款火爆的聊天機器人平臺,OpenAI這傢成立不到9年的公司,2023年的ARR年收入已達16億美元,相比前年增長