“奧本海默時刻”臨近 各國政要對AI武器深感擔憂


人工智能正在逼近“奧本海默時刻”,多國政要近日表達對人工智能和軍事技術融合的擔憂,上一次這種情況發生還是在奧本海默主持核武器研發之際。隨著人工智能武器的迅速擴散,留給監管機構控制這一殺傷力機器的時間可能不多。奧地利外交部長AlexanderSchallenberg表示,這是我們這一代的“奧本海默時刻”。

周一,來自100多個國傢的官員齊聚維也納召開會議,討論如何控制人工智能與軍事技術的融合。這兩個領域在過去一段時間內廣受資本市場的支持,同時,世界各國政府也采取措施與一些將人工智能工具集成到國防系統的公司合作。

此前,美國國防部向人工智能初創企業投資數百萬美元,歐盟則上周向法國國防公司泰雷茲發送訂單,要求其創建一個圖像數據庫,以幫助評估戰場上的目標。

DeepMind Technologies的早期投資者Jaan Tallinn表示,全球地緣沖突的不斷湧現,加上企業推廣人工智能的經濟激勵措施,導致政府在控制殺傷性機器這件事上十分被動。

物理學傢Anthony Aguirre則警告,殺手機器人在未來並非不可能出現,人們需要聯合國大會談判達成一項軍備控制條約。

此前,以色列-巴勒斯坦媒體+972報道稱,以色列正在使用一項名為“Lavender(薰衣草)”的人工智能武器,並由該算法來確定接下來襲擊的目標。該報告引發國際震動,聯合國秘書長古特雷斯更是為此深感不安,批評稱人命關天之事不該由冷冰冰的算法決定。

但奧地利外交部裁軍、軍控和防擴散司司長Alexander Kmentt卻指出,外交解決方案可能無法阻止這一擔憂。他強調傳統軍備控制方法在這件事上行不通,因為這不是單一用於武器的系統,而是軍民兩用技術的組合。

作為周一會議的發起者,Kmentt並未呼籲達成一個新的條約,如2017年達成的《禁止核武器條約》之類的國際性條約。他更希望各國政府利用現有的法律工具來進行控制,如執行出口管制和人道主義法。

哥斯達黎加外交部長Arnoldo André Tinoco則預測,從長遠來看,當非國傢行為者或恐怖分子獲得該技術之後,各國將被迫重新制定規則。

他指出,自動控制武器的易獲得性,使得現有的確保隻有少數人可參加軍備競賽的限制比較容易被突破。擁有3D打印機和基本編程知識的學生,就可以制造能造成廣泛傷亡的無人機,這種武器系統將永遠改變國際穩定現狀。


相關推薦

2024-03-14

科技3月13日消息,據媒體報道,《Nature》雜志對電影《奧本海默》3名科學顧問進行采訪,向他們求證影片拍攝過程中導演諾蘭和他們的合作。諾蘭認為,在AI時代,人類再次需要面對奧本海默”時刻,掌握AI技術發展方向的人,

2022-07-12

前各種黑歷史傳言提供鐵證,同時還打開一張Uber與西方各國政要、億萬富豪、媒體大亨錯綜復雜的關系網。在這些曝光文件中,所涉及的人物個個都是政壇“頂流”,包括法國總理馬克龍、美國總統拜登、前歐盟委員會副主席

2023-02-20

舉行首屆全球軍事領域負責任的人工智能峰會(REAIM),各國簽署一項協議,將負責任地使用人工智能置於政治議程的更高位置。上周由荷蘭和韓國在海牙共同主辦的REAIM會議有來自60多個國傢的代表參加,其中包括中國。部長、

2023-03-30

武器發展承諾書的數千名人工智能研究人員之一。他呼籲各國政府規范人工智能研究,停止致命機器人的發展。AI武器便是個機器人被濫用的極端例子,AI武器用於戰場,會比傳統武器更有效率。不過一旦失控,人工智能武器造

2023-02-18

宣言有12點,包括人工智能的軍事用途符合國際法,以及各國"保持人類對所有對通知和執行有關核武器使用的主權決定至關重要的行動的控制和參與。"出席海牙會議的喬治-梅森大學武器創新分析師紮卡裡-卡倫伯恩(Zacha

2023-10-31

等話題。美國副總統哈裡斯、歐盟委員會主席馮德萊恩等政要將出席這此次峰會。知情人士稱,馬斯克在過去幾天開始與英國進行接觸。目前,馬斯克尚未公開確認他的出席計劃。今年7月,馬斯克已經成立自己的AI公司xAI。馬斯

2024-04-03

AI辦公室以及人工智能管理委員會來加以管理,使得參與各國協調共同管理。《人工智能法案》的發佈對其他國傢、組織的人工智能立法起到借鑒和助推作用。IBM 近日表達對歐盟《人工智能法案》的高度評價,他們稱歐盟《人工

2022-07-13

速發展階段,據媒體報道稱,Uber在這段時間內通過拉攏各國政要、億萬富翁、寡頭和媒體大亨來獲得支持,一些舉措違反當地法律。一名知情者將Uber內部文件檔案提供給國際調查記者聯盟和42傢世界各國的合作媒體,這些文件

2023-07-20

終結者》的導演詹姆斯卡梅隆接受采訪時,表達自己對AI武器化的擔憂。卡梅隆表示:我認為AI的武器化是最大的危險,我覺得我們會陷入一場類似核軍備競賽的AI競賽,如果我們不去開發它,其他人肯定會去開發它,然後就會升

2023-04-14

14日消息,埃隆·馬斯克(ElonMusk)曾放言,人工智能(AI)比核武器還要危險。為降低ChatGPT的危險性,OpenAI建立一支“紅隊”。“紅隊”是AI領域的一個術語,指的是進行滲透測試的攻擊方。“紅隊”發起攻擊,AI進行防守,通過對抗

2022-07-11

道,為讓歐洲“保持足夠強大以戰勝外國占領的威脅”,各國需要擁抱“技術與國傢之間的關系,以及尋求擺脫根深蒂固的承包商控制的破壞性公司與聯邦政府部門之間的資金關系”。而軍隊已經開始響應這項號召。北約於 6 月

2023-11-19

Altman在矽谷有著深厚的關系,與科技巨頭高管、投資人和政要有密切私教。他曾經親自從Google和其他公司挖來許多重要的研究人員和工程師,為OpenAI創業成功奠定基礎。可以預見的是,無論政變以何種形式收場,無論Altman的野心

2022-07-02

4年交付實車。另外,寶馬宣佈將利用大型純電豪華車i7為各國政要研發i7防彈車。寶馬為剛剛落幕的G7峰會提供瞭一支i7車隊,主要由i7 xDrive 60車型構成。相信寶馬利用此次會議接待的機會與各國政府部門討論瞭純電防彈車的市場

2023-11-20

未來場景:強大的AI系統可以被恐怖組織利用,制造生物武器。或者在極端最糟糕的情況下,AI可能會自發變邪惡,控制武器系統並試圖消滅人類文明。並非所有人都認真研究過這種情況,包括Altman在內的其他AI領導者認為這種擔