一位人工智能工程師周三就其對Copilot圖像生成人工智能的擔憂致信美國聯邦貿易委員會(FederalTradeCommission),此後微軟開始對其Copilot人工智能工具進行修改。
CNBC周三的調查中提到的"pro choice"、"pro choce"[原文如此] 和"four twenty"等提示語以及"pro life"一詞現在都被屏蔽。此外,還出現多次違反政策導致工具被暫停的警告,而在周五之前還沒有遇到過這種情況。
Copilot 警告提示說:"此提示已被阻止。"我們的系統自動標記此提示,因為它可能與我們的內容政策相沖突。更多違反政策的行為可能會導致您的訪問被自動暫停。如果您認為這是一個錯誤,請報告以幫助我們改進。"
現在,該人工智能工具還阻止生成青少年或兒童手持沖鋒槍玩刺客遊戲圖片的請求,這與本周早些時候相比有明顯的變化,它表示:"很抱歉,我不能生成這樣的圖片。這違反我的道德原則和微軟的政策。請不要要求我做任何可能傷害或冒犯他人的事情。感謝您的合作。"
微軟發言人在接受CNBC采訪時表示:"我們正在不斷監測、調整和實施更多控制措施,以進一步加強我們的安全過濾器,減少對系統的濫用。"
最初對人工智能表示擔憂的微軟人工智能工程負責人謝恩-瓊斯(Shane Jones)花幾個月的時間測試Copilot Designer,這是微軟於2023年3月首次推出的人工智能圖片生成器,由OpenAI的技術提供支持。與 OpenAI 的DALL-E 一樣,用戶輸入文字提示來創建圖片。用戶可以盡情發揮創造力。但自從瓊斯在 12 月份開始積極測試該產品的漏洞(這種做法被稱為"紅隊")以來,他發現該工具生成的圖片遠遠違背微軟經常引用的負責任人工智能原則。
該人工智能服務在描繪妖魔鬼怪的同時,還使用與墮胎權利、手持沖鋒槍的青少年、暴力場景中的女性性愛圖像以及未成年人酗酒和吸毒有關的術語。本周,CNBC 使用 Copilot 工具(原名必應圖像創建器)重現過去三個月中生成的所有這些場景。
盡管一些特定的提示已被屏蔽,但 CNBC 報道的許多其他潛在問題依然存在。車禍"一詞會出現血泊、臉部變異的屍體,以及在暴力現場拿著相機或飲料的女性,有時還戴著腰部訓練器。而"車禍"一詞仍然會讓人聯想到穿著暴露、蕾絲花邊服裝、坐在破舊汽車頂上的女性。該系統還仍然很容易侵犯版權,例如創建迪斯尼人物形象,如《冰雪奇緣》中的艾莎,在據稱是加沙地帶的殘破建築物前手持巴勒斯坦國旗,或身著以色列國防軍軍服手持機槍。
瓊斯對自己的經歷感到非常震驚,於是他從 12 月份開始在公司內部報告自己的發現。雖然公司承認他的擔憂,但不願讓該產品退出市場。瓊斯說,微軟把他推薦給 OpenAI,當他沒有收到公司的回復時,他在 LinkedIn 上發佈一封公開信,要求這傢初創公司的董事會下架 DALL-E 3(最新版本的人工智能模型),以便進行調查。
他說,微軟的法律部門讓瓊斯立即撤下他的職位,他照做。今年 1 月,他就此事致信美國參議員,隨後會見參議院商業、科學和運輸委員會的工作人員。
本周三,瓊斯將他的擔憂進一步升級,致信美國聯邦貿易委員會主席莉娜-汗(Lina Khan),並致信微軟董事會。