針對歐盟擬議的開源人工智能監管新政,無黨派智囊團Brookings已於近日表達明確的反對意見。其在文章中指出——新規強加給通用人工智能系統的法律責任,也將對該領域的技術發展造成嚴重的破壞。根據歐盟的“人工智能法案”草案,開源開發者也必須遵守風險管理、數據治理、技術文檔和透明度、以及準確性和網絡安全標準等方面的指導方針。
截圖(來自:Brookings)
佈魯金斯學會分析師 Alex Engler 斷言,若一傢公司部署一套導致某些災難性後果的開源人工智能系統,那該公司將可通過起訴構建該產品的開源開發人員來試圖轉移責任,而這樣的後果是不堪想象的。
這麼做或進一步導致未來 AI 權利被集中到大型科技企業的手中,並對公眾想要深入的至關重要的 AI 研究造成阻礙。
最終歐盟對開源領域的監管嘗試,可能隻會產生一系列危及開源 AI 貢獻者的復雜要求、而無法改進通用 AI 的使用。
2021 年的時候,歐盟委員會公示旨在促進可信賴人工智能的監管草案(AI Act),以期在今秋投票之前廣泛征集各行業的意見。
盡管該機構原本想要嘗試在技術創新與問責之間加以平衡,但據一些專傢所述 —— 紙面上的規定,對 AI 系統的開發工作提出相當繁重的要求。
據悉,該法案包含對某些類別的開源 AI 的例外情況,比如專用於研究和控制以防止濫用的那些。
但正如 Alex Engler 所指出的那樣,想要無死角封堵這些項目進入商業系統是相當困難的,因為它們很可能被惡意行為者濫用。
以“Stable Diffusion”這款開源文本轉圖像 AI 系統為例,盡管其在發佈許可中禁止某些類型的內容,但社區中還是很快冒出利用此類工具來實施“深度色情偽造”的案例。
艾倫人工智能研究所(Allen Institute for AI)創始人兼首席執行官 Oren Etzioni 也贊同這一觀點,即當前人工智能監管草案存在多方面的問題。
規則帶來的沉重負擔,或對開源文本生成系統等開發等領域產生寒蟬效應。畢竟單打獨鬥的開發人員,很難趕上 Google 和 Meta 之類科技巨頭的水平。
歐盟不曾想到這一點 —— 通向監管地獄的道路,竟是該機構在善意驅使下鋪就的。盡管對於開源開發者來說,他們本不該承受與商業軟件開發商同等的負擔。
以學生開發者為例,他們可能出於無力遵守歐盟 AI Act 的考慮,而被迫選擇不分發其辛苦打造的軟件,結果對科研成果和學術進步都造成可重復性的寒蟬效應。
有鑒於此,Etzioni 認為歐盟監管機構不應尋求廣泛監管的人工智能技術、而應專註於 AI 的特定應用。
理由是 AI 存在快速變化和太多的不確定性,以至於遲緩的監管過程無法發揮作用。
相比之下,自動駕駛汽車、機器人或玩具等 AI 應用,更應成為被監管的對象。