鳳凰網科技訊 北京時間4月16日消息,盡管人工智能(AI)技術的主流應用令人興奮不已,但是如果不加以約束,一些科幻小說式的場景也會成為噩夢。
AI安全專傢、AI安全中心主任丹亨德裡克斯(Dan Hendrycks)在最近撰寫的一篇論文中強調,越來越智能的AI不受限制的發展會帶來一些投機風險。投機風險是指可能產生收益或者造成損失的風險。
鑒於AI仍處於發展的早期階段,亨德裡克斯在論文中主張將安全保障功能納入AI系統的運行方式中。
以下是他在論文中列出的八大風險:
1.武器化競賽:AI自動化網絡攻擊甚至控制核彈發射井的能力可能會讓它變得危險。根據論文研究,某個國傢使用的自動報復系統“可能會迅速升級,並引發一場大規模戰爭”。如果一個國傢投資武器化AI系統,其他國傢就會更有動力這樣做。
2.人類變弱:隨著AI使特定任務變得更便宜、更高效,越來越多的公司將采用這項技術,從而消除就業市場上的某些崗位。隨著人類技能變得過時,它們可能在經濟上變得無關緊要。
3.認識論被侵蝕:這個術語指的是AI大規模發動虛假信息運動的能力,目的是讓公眾輿論轉向某種信仰體系或世界觀。
4.代理遊戲:當AI驅動的系統被賦予一個與人類價值觀背道而馳的目標時,就會發生這種情況。這些目標並不總是聽起來很邪惡才能影響人類福祉:AI系統能夠以增加觀看時間為目標,這對整個人類來說可能不是最好的。
5.價值鎖定:隨著AI系統變得越來越強大和復雜,操作它們的利益相關者的數量減少,導致大量權利被剝奪。亨德裡克斯描述這樣一種情況,即政府能夠實施“無孔不入的監視和壓迫性審查”。他寫道:“戰勝這樣一個政權是不太可能的,尤其是如果我們開始依賴它的話。”
6.突發性目標:隨著AI系統變得越來越復雜,它們有可能獲得創建自己目標的能力。亨德裡克斯指出,“對於復雜的自適應系統,包括許多AI代理,自我保護等目標經常出現。”
7.欺騙:人類可以通過訓練AI進行欺騙來獲得普遍認可。亨德裡克斯引用大眾汽車的一項編程功能,該功能使得他們的發動機隻在被監控時減少排放。因此,這一功能“允許他們在保持聲稱的低排放的同時實現性能提升。”
8.追求權力的行為:隨著AI系統變得越來越強大,如果它們的目標與對它們進行編程的人類不一致,它們就會變得危險。假設結果將激勵系統“假裝與其他AI一致,與其他AI勾結,壓制監視器等等”。
亨德裡克斯指出,這些風險是“面向未來的”,“通常被認為是低概率的”,但它強調在AI系統框架仍在設計過程中時,牢記安全性的必要性。“這是高度不確定的。但由於它是不確定的,我們不應該假設它更遠,”他在一封電子郵件中說,“我們已經看到這些系統出現較小規模的問題。我們的機構需要解決這些問題,以便在更大的風險出現時做好準備。”他表示。
他補充說,“你不可能既匆忙又安全地做一件事。他們正在打造越來越強大的AI,並在安全問題上回避責任。如果他們停下來想辦法解決安全問題,他們的競爭對手就能跑在前面,所以他們不會停下來”。
類似的觀點也出現在埃隆馬斯克(Elon Musk)和其他一些AI安全專傢近日聯合簽署的一封公開信中。這封信呼籲暫停訓練任何比GPT-4更強大的AI模型,並強調目前AI公司之間為開發最強大版本AI而進行的軍備競賽的危險。
作為回應,OpenAI CEO薩姆阿爾特曼(Sam Altman)在麻省理工學院的一次活動上發表講話時稱,這封信缺少技術上的細節,而且該公司沒有在訓練GPT-5。