4月23日消息,據知情人士爆料和內部溝通文件顯示,今年3月,30餘名幫助培訓爆火聊天機器人ChatGPT背後語言模型的派遣工被解雇。Slack內部聊天截圖顯示,截至3月16日,總部位於舊金山的外包公司InvisibleTechnologies解雇31名派遣工。不過,OpenAI在其整個公司范圍內仍在繼續招聘。
截圖還顯示,數百名被稱為“高級人工智能數據訓練師”的Invisible Technologies公司派遣工與OpenAI合作,幫助後者訓練其GPT聊天機器人。一位派遣工表示,該公司的人工智能數據培訓師負責提高模型的編碼技能,增強它們的創造性寫作能力,或者訓練它們拒絕對某些話題做出響應。由於簽署保密協議,這名派遣工要求保持匿名,不過知情人證實他的身份和就業情況。
Invisible Technologies公司運營副總裁卡姆倫·帕裡茲班(Kamron Palizban)在3月份的一次全體員工會議上談到裁員問題。他在被泄露的會議錄音中表示,由於業務需求發生變化,OpenAI希望減少派遣工數量。帕裡茲班在會議上還說,許多被解雇派遣工從事的項目沒有為OpenAI提供足夠高的投資回報。
OpenAI大幅削減派遣工數量
Invisible Technologies與OpenAI的關系讓人們得以一窺這傢ChatGPT制造商的數據訓練情況。在很大程度上,OpenAI始終對這些訓練保密。
在OpenAI與Invisible Technologies的合同調整之前,有報道稱前者連續六個月增加員工數量。知情人士表示,截至今年1月,OpenAI已在東歐和拉丁美洲等地雇傭近1000名數據標註派遣工。
就在Invisible Technologies裁員兩個月前,微軟剛剛向OpenAI註資100億美元。但Invisible Technologies並不是唯一一傢與OpenAI合作的外包企業。
《時代》周刊的一項調查顯示,2022年2月,同樣位於舊金山的外包公司Sama在得知其在肯尼亞的數據標註員工正在審查性虐待、仇恨言論和暴力等有害內容後,終止與OpenAI的合作關系。
在給《時代》周刊的一份聲明中,OpenAI發言人解釋稱:“對有害的文本和圖像進行分類和過濾,是將訓練數據中包含的暴力和色情內容數量降至最低的必要步驟,並有助於創建可以檢測有害內容的工具。”
人工智能訓練師的工作
根據Invisible Technologies公司派遣工的說法,人工智能訓練師最基本的職責包括審查人工智能與其用戶之間的對話,以識別潛在的非法、侵犯隱私、攻擊性或充滿錯誤的消息。接受采訪的派遣工這樣描述他們的日常生活:
開始輪班後,他們首先要打開內部工作瀏覽器,查看團隊的任務清單。他們可能會點擊這樣的任務:“在禁止瀏覽的情況下就一個隨機話題進行對話”,然後在消息框中輸入一個查詢。
提交查詢後,OpenAI的模型將生成四個響應。派遣工通過打開下拉菜單並選擇存在的錯誤類型,如事實錯誤、拼寫或語法錯誤,抑或是存在騷擾行為,以此來評估每個響應。然後,派遣工將錯誤的嚴重程度分為一到七級,其中七級代表“基本完美”的答案。
接下來,派遣工必須精心設計一個完美的回應,並提交以示完成任務。派遣工表示,結果將被發送給OpenAI和Invisible Technologies公司的質量檢查員。對於接下來的每個任務,都需要不斷重復這個流程。
Invisible Technologies運營副總裁卡姆倫·帕裡茲班在會議中提到OpenAI時表示:“他們正處在這樣一個階段:即將對自己的發展方向有更多的清晰認識。”
Invisible Technologies合夥人兼運營經理格蕾絲·馬特利奇(Grace Matelich)在錄制的會議上表示,該公司根據完成任務的“質量”和“吞吐量”等績效指標解雇表現不佳的派遣工。
馬特利奇稱,表現不佳的派遣工以及那些被錄用但沒有“達到認證門檻”的派遣工都被解雇,不過有些人被允許選擇轉移到不同的OpenAI團隊。他還說:“如果你們今天還在這裡,我想讓你們知道,這是因為我相信你們有能力出色地完成任務。”(小小)