谷歌前首席執行官埃裡克-施密特將人工智能與核武器相提並論,並呼籲建立類似於使世界上最強大的國傢不互相摧毀的威懾制度。
7月22日,施密特在阿斯彭安全論壇關於國傢安全和人工智能的小組討論中談到人工智能的危險。在回答有關科技界道德價值的問題時,施密特解釋說,他自己在Google公司的早期也曾對信息的力量感到天真。然後,他呼籲科技更好地與它所服務的人的倫理和道德保持一致,並在人工智能和核武器之間做一個怪異的比較。
人工智能和機器學習是一項令人印象深刻且經常被誤解的技術。在很大程度上,它並不像人們認為的那樣聰明。它可以制作出傑作級的藝術品,在《星際爭霸II》中擊敗人類,並為用戶打出基本的電話。然而,試圖讓它完成更復雜的任務,如駕駛汽車穿越大城市,並沒有那麼順利。
施密特談到20世紀50年代和60年代,當時各國外交部門圍繞地球上最致命的武器精心制定一系列控制措施。但是,為讓世界達到制定《禁止核試驗條約》、《第二階段談判協議》和其他具有裡程碑意義的立法的地步,花幾十年的時間進行核爆炸,關鍵是廣島和長崎的毀滅。美國在二戰結束時摧毀的這兩個日本城市殺死數以萬計的人,並向世界證明核武器的永恒恐怖。
我們與這些武器被使用的可能性共處的方式是通過一種叫做"相互確保毀滅"(MAD)的東西,這是一種威懾理論,確保如果一個國傢發射核彈,其他國傢也有可能發射。我們不使用地球上最具破壞性的武器,因為這樣做有可能至少會摧毀全球的文明。
盡管施密特的評論豐富多彩,但我們並不希望或需要人工智能的MAD。首先,人工智能還沒有證明自己接近核武器的破壞力。但身居要職的人害怕這項新技術,而且,通常是出於錯誤的原因。人們甚至建議將核武器的控制權交給人工智能,理論上他們會比人類更好地決定武器的使用。
人工智能的問題不在於它有潛在的摧毀世界核武器的力量。問題在於,人工智能的好壞取決於設計它的人,他們反映創造者的價值觀。人工智能存在著典型的"垃圾進,垃圾出"的問題。種族主義的算法造就種族主義的機器人,所有的人工智能都帶有其創造者的偏見。