OpenAI現在允許其人工智能藝術生成程序DALL-E的用戶編輯帶有人臉的圖像。由於擔心被濫用,這項功能以前是禁止使用的,但是,在發給DALL-E的100多萬用戶的一封信中,OpenAI說,在改進過濾器以去除含有"性、政治和暴力內容"的圖像之後,他們開放訪問權限。
該功能將讓用戶以多種不同方式編輯圖像。例如,他們可以上傳某人的照片並生成圖片的變體,或者他們可以編輯特定的特征,比如改變某人的服裝或發型。該功能無疑將對創意行業的許多用戶有用,從攝影師到電影制片人。
"隨著我們的安全系統的改進,DALL-E現在已經準備好支持這些令人愉快和重要的用例--同時最大限度地減少深度偽造的潛在危害,"OpenAI在宣佈這一消息的致客戶的信中說。
這一決定是人工智能藝術生成器的制造商與他們自己的用戶正在進行的協商的一部分,因為他們試圖駕馭該技術的潛在危害。作為一傢資金雄厚、與微軟等科技巨頭有聯系的公司,OpenAI采取相對謹慎的態度。但該公司已被穩定擴散公司等競爭對手超越,該公司對用戶的限制較少。這導致技術的快速發展,但也使惡意的應用變得更加容易。例如,Stable Diffusion已經被用來生成名人的Deepfake情色內容。
對於OpenAI來說,用DALL-E來阻止這種露骨的材料應該是很容易的。該公司的使用條款也禁止用戶在未經同意的情況下上傳人物圖像(盡管在其目前的訪問模式下,這基本上是不可能主動執行的)。然而,沒有任何內容過濾器是完美的,可能存在比未經同意的色情內容更微妙的有害用例。