歐洲議會於2024年3月13日批準通過《人工智能法案》,會上523票贊成、46票反對、49票棄權。這標志著世界上首次全面規范人工智能的法律誕生,同時這也是世界上迄今為止最全面的人工智能立法。《人工智能法案》將於5月在歐盟國傢中被正式批準,預計年內一些條款將開始適用。
《人工智能法案》涉及人權、產權以及主權三個領域。該法案內容主要可以歸納為七點。第一點是關於人工智能系統在歐盟的市場投放、服務以及使用的統一規則;第二點是規定對特定人工智能實踐的禁止;第三點是規定對高風險人工智能系統的具體要求以及相關經營者的義務;第四點是制定對特定人工智能系統的統一透明度規則;第五點是制定對人工智能模型在市場中的準則,也涉及到管理及創新發展。此外還通過設立AI辦公室以及人工智能管理委員會來加以管理,使得參與各國協調共同管理。
《人工智能法案》的發佈對其他國傢、組織的人工智能立法起到借鑒和助推作用。IBM 近日表達對歐盟《人工智能法案》的高度評價,他們稱歐盟《人工智能法案》提供一個亟需的框架,以確保開發和部署人工智能技術過程中的透明度、問責制和人為監督。並且IBM 表示相信該法規將促進人們對人工智能系統的信任和信心,同時促進創新和提高競爭力。
《人工智能法案》的借鑒意義
首先,《人工智能法案》將人工智能系統風險分為不可接受的風險、高風險、有限風險和低風險四大類。法案采用基於風險的分級動態監管模式,並按照風險級別制定相應的監管規則,這保持行業發展的相對平衡。
其次,通過設立人工智能監管沙盒有助於平衡監管與創新。法案表示監管沙盒向任何符合資格和選擇標準的人工智能系統的潛在申請者開放,並且進入監管沙盒的標準是透明和公平的。這一點在確保人工智能發展創新的同時,法案也能繼續註重保護人的基本權利及民主等免受高風險人工智能的影響。
此外,《人工智能法案》對跨國人工智能企業也進行要求,規范在政策管制程度的不同地區仍能遵循以人為本,進一步降級法律風險。
最後,立法本身就可以在民眾心底建立維權意識,這不僅可以帶動人工智能整體的健康發展,還能建立起公民對人工智能行業的信任。
《人工智能法案》能否降低當前主要的人工智能風險?
在人工智能高速發展、不斷迭代的現階段,由於監管不到位亦或是鉆法律空擋等,致使人工智能倫理事件頻發,甚至已經威脅到人的生命安全。那麼作為人類首部人工智能相關立法的《人工智能法案》,能否減少甚至杜絕現階段社會面臨的人工智能事故呢?接下來將選取幾個較為經典的人工智能案例,結合《人工智能法案》說明。
(1)未經親屬授權,通過AI復活逝者
生成式AI現階段已融入到各行各業之中,該技術不光可以對產業賦能增加效率,還可以滿足人們的幻想與期盼。前不久,知名音樂人包小柏成功運用AI技術“復活”已故兩年的女兒,在打造的“數字世界”不僅可以進行對話,還可以唱歌跳舞。這本來是積極的一面,代表AI可以給予人們的正能量。然而,在這之後,越來越多的已故明星被AI技術“復活”,重點是未經親屬授權,在傢屬不解的情況下將視頻推向短視頻平臺。這些事件引起廣泛熱議並且傷害部分傢屬和一些粉絲。利用AI技術“復活”可能是對已故之人的思念,也有可能是制造熱點,這一點無法考證。但是確定的是,這已經涉及到倫理風險中的社會性風險,即人工智能使用不合理,包括濫用、誤用等,對社會價值等方面產生負面影響的風險。那麼在《人工智能法案》中能否在開始就減少或杜絕此類現象呢。
《人工智能法案》中明確提到將人工智能系統風險分級外,還提出應被禁止的8種AI系統類型。其中就有禁止使用網絡或視頻監控進行無目標的人臉收集以創建人臉識別數據庫,這一點可以解決AI“復活”的底層邏輯,利用AI“復活”需要先用視頻或圖片抓取人物,並通過模型後續生成。此外,還禁止根據人的弱點,達到“嚴重扭曲”某人的行為目的或效果,造成重大傷害的AI系統。這一點也能盡最大程度避免利用人的性格弱點,來牟取私利的行為。
(2)通過AI在網絡平臺抓取民眾心裡,引導不良走向,甚至幹預選舉
在2016年美國大選期間,劍橋數據公司通過大數據采集分析臉譜化以及定向推送等相關技術,從FACEBOOK平臺上抓取大量用戶個人隱私,把生活在屏幕背後的人還原成一個毫無隱私可言的人。因此便有針對性極強的精準信息投放,在個人不知不覺的時候在後臺進行信息過濾,通過計算機建模對數據進行分析,對精確的對象釋放個性定制的信息,影響其心智和行為,從而贏得他們的選票。從這一問題上我們也看到該項技術衍生的其他問題,例如部分公司利用此技術引導貸款,亦或是引導至不良方向等。由此看出,不法分子利用AI技術在網絡平臺引導民眾走向不良方向的問題是巨大的,衍生出的結果也是千變萬化的。
在《人工智能法案》中,全面禁止部分AI技術的一些“不可接受”的用途,例如禁止由人工智能驅動的社會評分系統,以及任何用於猜測一個人的種族、政治傾向或性取向的基於生物識別的工具。此外,還有此前我們提到的禁止操縱人類行為或利用人類弱點的AI系統。最後,設立人工智能監管沙盒可以使得進入的企業運行是透明的,這將更有利於監管。
(3)人工智能應用到軍事,人道主義能否保障
2023年5月,美國空軍上校漢密爾頓在5月舉行的未來戰爭空天能力峰會上稱在一次模擬測試中,一架負責執行防空火力壓制(SEAD)任務的無人機,殺死人類操作員。據他稱,因為無人機收到識別並摧毀敵方防空導彈的指令,並且最終開火權在人類操作員的手上。但是由於這架無人機使用的AI系統在進行數據訓練時,得到“摧毀敵方防空系統”為最高優先級。因此,當人類操作員發出不允許攻擊的指令時,AI系統認為操作員是在阻擾它執行最優先級命令,進而選擇對自己的人類操作員發動攻擊。雖然這是一次測試,但是不可否定的是在應用到軍事領域中,人工智能能否與人類兼容。
除此外,利用人工智能技術對其他國傢產生主權威脅,以及利用人工智能到軍事沖突中加大人員傷亡以及誤傷,這樣的情形或已經發生或將在未來升級。在《人工智能法案》中其說明不規定於軍事。但是在我國2021年發佈的《關於規范人工智能軍事應用的立場文件》中,對於這些問題詳細的進行倡議。
例如表明在軍事政策上,各國在發展先進武器裝備、提高正當國防能力的同時,應銘記人工智能的軍事應用不應成為發動戰爭和追求霸權的工具,反對利用人工智能技術優勢危害他國主權和領土安全的行為。
在技術安全上,各國應不斷提升人工智能技術的安全性、可靠性和可控性,增強對人工智能技術的安全評估和管控能力,確保有關武器系統永遠處於人類控制之下,保障人類可隨時中止其運行。
值得一提的是我國也積極表明AI+軍事的過程上應該註意人道主義倫理問題,表明各國應確保新武器及其作戰手段符合國際人道主義法和其他適用的國際法,努力減少附帶傷亡、降低人員財產損失,避免相關武器系統的誤用惡用,以及由此引發的濫殺濫傷。
總體來看歐盟的《人工智能法案》不僅為其內部在人工智能領域形成統一的規則和開發方向提供法律基礎,而且在全球范圍內推行人工智能的監管標準,從而掌握規則制定的主動權。隨著《人工智能法案》的正式實行,如果嚴格按照法案,社會上的人工智能倫理問題將大大減少,但是在軍事主權上仍需世界各國共同努力。值得註意的是,本文列舉案例較少,主要挑選一些經典案例,不能代表人工智能帶來的所有風險。(作者|谷碩,編輯|劉洋雪)