一份文件顯示,七國集團(G7)將於周一就開發先進人工智能(AI)系統的公司的行為準則達成一致,此舉正值各國政府紛紛尋求減輕這項技術的風險和潛在的濫用。該文件顯示,考慮到人工智能可能帶來的隱私和安全風險,這套自願行為準則將成為一些主要國傢管理人工智能的重要裡程碑。
今年5月,由加拿大、法國、德國、意大利、日本、英國和美國,以及歐盟組成的七國集團領導人,在“廣島人工智能進程”(Hiroshima AI process)部長級論壇上啟動這項制定人工智能行為準則的工作。
文件顯示,這套行為準則共包含11項內容,旨在推廣全球范圍內的安全、可靠和值得信賴的人工智能,並將為開發最先進的人工智能系統的組織提供自願行動指南,包括最先進的基礎模型和生成性人工智能系統。
該準則敦促企業采取適當措施,識別、評估和緩解人工智能生命周期中的風險,並在人工智能產品投放市場後處理誤用事件和模式。這些公司應該發佈關於人工智能系統的能力、限制以及使用和誤用的公開報告,並在安全控制方面進行大力投資。其最終的目的是幫助企業抓住這項技術的裨益,並應對它們可能帶來的風險和挑戰。
當前,歐盟憑借其嚴厲的人工智能法案,在監管這項新興技術方面走在前列。相比之下,日本、美國和東南亞國傢則采取相對柔和的不幹涉模式,來促進經濟增長。
本月早些時候,歐盟委員會數字主席Vera Jourova在日本京都舉行的互聯網治理論壇上曾表示,行為準則是確保安全的堅實基礎,在監管到位之前,它將充當橋梁的作用。