據報道,美國立法者們正在努力研究,應該對新興的人工智能設定什麼樣的監管,但在ChatGPT引起美國政府註意的幾個月後,共識還遠未確定。一項對美國參議員、國會工作人員、人工智能公司和利益集團的采訪顯示,美國政府內部有許多選項正在討論中。
當地時間周二,當OpenAI首席執行官山姆·阿特曼(Sam Altman)首次出現在參議院小組面前時,這場辯論將成為焦點。
一部分提案將側重於可能使人們的生命或生計處於危險之中的人工智能,比如在醫學和金融領域中使用的人工智能技術。其他可能性還包括確保人工智能不被用於歧視或侵犯人類的公民權利的規則。
對於這項技術的另一個爭論,是應該監管人工智能的開發者,還是監管利用人工智能與消費者互動的企業。而轟動一時的聊天機器人ChatGPT背後的創業公司OpenAI,已經討論一個獨立的人工智能監管機構。
目前還不確定哪種方法會勝出,但包括IBM和美國商會在內的一些商界人士贊成隻對醫療診斷等關鍵領域進行監管的方法,他們將其稱之為基於風險的監管方法。
美國商會技術參與中心的喬丹·克林肖(Jordan Crenshaw)表示,如果國會決定有必要制定新的法律,美國商會的人工智能委員會主張 “根據對個人的影響來確定風險”。例如,人工智能推薦視頻的時候,它所帶來的風險可能不會像做健康或財務決定一樣高。
所謂的生成性人工智能(使用數據來創建新的內容,如ChatGPT寫的讀起來像人類的散文)的激增,引發人們對這種快速發展的技術可能鼓勵考試作弊、助長錯誤信息並導致新一代詐騙的擔憂。
人工智能的熱潮導致一系列行業會議,包括OpenAI、其支持者微軟和Alphabet Inc的CEO在本月訪問白宮。美國總統喬·拜登(Joe Biden)會見這些CEO們。國會助理和技術專傢表示,國會也同樣在參與這項技術的發展。
備受矚目的人工智能創業公司Anthropic的聯合創始人傑克·克拉克(Jack Clark)表示:“整個眾議院和參議院的工作人員基本上都已經明白,都被要求圍繞這個問題展開討論。人們想走在人工智能的前面,部分原因是他們覺得自己之前沒有能夠走在社交媒體的前面。”Anthropic的首席執行官也出席白宮會議。
支持科技的進步商會負責人亞當·科瓦切維奇(Adam Kovacevich)表示,隨著立法者的速度加快,大型科技企業的主要任務是要反對 “過早的過度反應”。
雖然像參議院多數黨領袖查克·舒默(Chuck Schumer)這樣的立法者決心以兩黨合作的方式解決人工智能問題,但事實是美國國會內呈現兩極分化的局面,明年將是總統換屆選舉之年,立法者們正在解決其他重大問題,如提高債務上限。
舒默提出的計劃要求獨立專傢在新的人工智能技術發佈之前對其進行測試。他還要求企業提高透明度,並向政府提供該技術所需要的數據以避免傷害。
政府微管理
基於風險的監管方法意味著,例如用於診斷癌癥的人工智能將受到食品和藥物管理局的審查,而用於娛樂的人工智能將不受監管。歐盟已經開始著手通過類似的規則。
但在民主黨參議員邁克爾·貝內特(Michael Bennet)看來,監管機構對風險的關註似乎還不夠,他提出一項法案,呼籲成立政府人工智能工作組。他表示自己主張采取“基於價值觀的監管方法”,優先考慮隱私、公民自由和權利。
貝內特的一位助手補充說,基於風險的管理規則可能會過於死板,無法發現像人工智能用來推薦宣傳白人至上主義的視頻這樣的危險。
一位不願透露身份的政府工作人員向媒體透露,立法者還討論如何最好地確保人工智能不被用於種族歧視。
而在OpenAI內部,工作人員已經考慮到更廣泛的監管。
OpenAI的研究科學傢庫倫·奧吉菲(Cullen O'Keefe)於4月份在斯坦福大學的一次演講中提議建立一個機構,授權企業在訓練強大的人工智能模型或運營促進這些模型的數據中心之前獲得許可。奧吉菲稱,這個機構可以被稱為人工智能安全和基礎設施安全辦公室,簡稱OASIS。
在被問及該提案時,OpenAI的首席技術官米拉·穆拉蒂(Mira Murati)說,一個值得信賴的機構可以讓開發者對安全標準“負責”。但比機制更重要的是“在什麼是標準,什麼是試圖減輕的風險方面”達成一致。
美國最後設立的主要監管機構是消費者金融保護局,該局是在2007-2008年金融危機後設立的。
一些共和黨人可能會對任何人工智能監管表示反對。一位參議院共和黨人的助手對媒體表示:“我們應該小心,人工智能監管提案不會成為政府對搜索引擎和算法等計算機代碼進行微管理的機制。”