隨著將更多資源投入到生成式人工智能領域,Meta公司已經解散其負責任人工智能(RAI)團隊。TheInformation今天援引其看到的一篇內部文本爆料這一消息。報道稱,RAI的大部分成員將轉到公司的生成式人工智能產品團隊,其他人則將在Meta的人工智能基礎設施上工作。
Meta經常對外宣稱要以負責任的方式開發人工智能,甚至還專門為此設立一個頁面,列出其"負責任的人工智能支柱",包括問責制、透明度、安全性、隱私等。
The Information 的報道援引 Meta 公司代表喬恩-卡維爾(Jon Carvill)的話說,公司將"繼續優先投資於安全、負責任的人工智能開發"。他補充說,雖然公司正在拆分團隊,但這些成員將"繼續支持跨 Meta 的相關工作,負責任地開發和使用人工智能"。
截至發稿時,Meta 公司沒有回應置評請求。
該團隊在今年早些時候已經進行重組,《商業內幕》(Business Insider)在報道中寫道,重組包括裁員,這使得 RAI 成為"一個空殼團隊"。該報道還稱,RAI 團隊自 2019 年起就已存在,但幾乎沒有自主權,其倡議在實施前必須經過漫長的利益相關者談判。
RAI 的創建是為發現其人工智能訓練方法中存在的問題,包括公司的模型是否經過充分多樣化的信息訓練,以防止出現平臺上的審核問題等。Meta 社交平臺上的自動化系統已經導致一些問題,比如 Facebook 翻譯問題導致一次錯誤逮捕,WhatsApp 人工智能貼紙生成在特定提示下會產生有偏見的圖片,Instagram 的算法幫助人們找到CSAM有害信息材料。
在世界各國政府競相為人工智能發展設立監管護欄之際,微軟也在今年年初采取類似的舉措。美國政府與人工智能公司達成協議,總統拜登隨後指示政府機構制定人工智能安全規則。與此同時,歐盟公佈其人工智能原則,並仍在努力通過其人工智能法案。