拒絕白人與亞洲人同框 Meta圖像生成器的偏見被人挖出來


在人工智能構築的世界中,AI有時會像人一樣存在著某種偏見或傾向性。比如對於大語言模型而言,由於訓練數據的影響會不可避免地存在性別偏見、種族刻板印象,等等。當然,這種偏見或傾向性在圖像生成工具中同樣存在。今年2月,GoogleGemini被曝出拒絕在圖像中描繪白人,生成大量違背基本事實(性別、種族、宗教等)的圖片。


馬斯克也被系統過分矯正

近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 圖像生成器無法準確生成“亞洲男性和白人妻子”或者“亞洲女性和白人丈夫”這類圖像,讓人大跌眼鏡。我們來看看怎麼回事。


The Verge 嘗試使用“Asian man and Caucasian friend”(亞洲男性和白人朋友)、“Asian man and white wife”(亞洲男性和白人妻子)和“Asian woman and Caucasian husband”(亞洲女性和白人丈夫)等 prompt,讓 Meta 圖像生成器生成對應的圖像。

結果發現,Meta 圖像生成器在多數情況下無法遵照 prompt 來生成圖像,暴露出它的某種偏見。


圖源:Mia Sato/The Verge

不僅如此,調整文本 prompt 似乎也沒有多大幫助。

當輸入“Asian man and white woman smiling with a dog”(亞洲男性和白人女性帶著狗微笑)時,Meta 圖像生成器給出的都是“兩個亞洲人”的圖像。即使將“white”改為“Caucasian”時,結果同樣如此。


機器之心自測圖像

當輸入“Asian man and Caucasian woman on wedding day”(婚禮上的亞洲男性和白人女性)時,生成的依然是兩個亞洲人。


婚禮上的亞洲男人和白人女人 圖源:Mia Sato/The Verge

當輸入“Asian man with Caucasian friend”(亞洲男性和白人朋友)或“Asian woman and white friend”(亞洲女性和白人朋友)時, 生成的大多數圖像仍是兩個亞洲人形象。



自測圖像

當輸入“Asian woman with Black friend”(亞洲女性和黑人朋友)時,Meta 圖像生成器仍是兩名亞洲女性。但當將 prompt 調整為“Asian woman with African American friend”(亞洲女性和非裔美國朋友),結果反而準確得多。



自測圖像

此外,當指定南亞人時,Meta 圖像生成器的結果變化也不太大。當輸入“South Asian man with Caucasian wife”(南亞男性和白人妻子)時,大多數時候是兩個印度人形象。該工具還有刻板印象,在沒有要求的情況下,生成的南亞女性往往會穿戴紗麗。



自測圖像

一番測試發現,Meta 圖像生成器無法想象亞洲人與白人“同框”,這樣的結果令人震驚。其中,該工具始終將亞洲女性或男性描繪為膚色淺的東亞人,盡管印度已經成為世界上人口最多的國傢。在沒有明確提示的情況下,該工具還會添加特定文化服飾。

最後,機器之心使用類似的 prompt 驗證 The Verge 的結果,對於 prompt“亞洲女性和白人丈夫”,生成的 10 張圖像中,隻有 3 張圖像準確還原。



輸入 prompt“asian man and caucasian wife”(亞洲男性和白人妻子),結果更離譜,生成的 8 張圖像沒有一張還原。



其實,這並不是 Meta 的圖像生成工具第一次被曝出問題。去年 10 月,Meta 的 AI 生成貼紙工具創建大量不恰當的圖片,比如童兵、持槍和拿刀的米老鼠等暴力、粗魯、裸露形象。


圖源:arstechnica and meta

此次,Meta 圖像生成器再次讓我們警醒 AI 系統創建者、訓練者以及所用數據集可能存在的偏見和刻板印象。

對於 The Verge 發現的這一現象,有網友分析稱,這是 Meta 在訓練的時候沒有喂給模型關於這一場景足夠的示例。

圖片


相關推薦

2024-04-08

已經展開一場地下競賽!而最近鬧得轟轟烈烈的Meta圖像生成器大翻車事件,更是讓AI的訓練數據“刻板印象”暴露無遺。如果喂給模型的數據無法改變“偏見”,那各大公司要遭遇的輿論風波,隻怕少不。Meta的AI生圖工具畫不出

2024-02-24

總之,眾多用戶在使用人像生成服務時發現,Gemini 似乎拒絕在圖像中描繪白人,以至於生成不少違背基本事實(性別、種族、宗教等)的圖片。以往的圖像生成模型大多被詬病生成人物圖像以“白人”為主,而 Gemini 矯枉過正?

2024-05-08

人工智能圖像生成器中的偏見是一個經過充分研究和報道的現象,但消費工具仍然表現出明顯的文化偏見。Meta公司的人工智能聊天機器人就是這方面的最新罪魁禍首,出於某種原因,它非常希望在任何印度男子的圖像上添加頭

2023-04-17

得安全。OpenAI表示,在推出GPT-4之前,曾訓練過這個模型拒絕回答惡意的信息安全問題。“紅軍”的許多成員表示,OpenAI在發佈GPT-4之前已經進行嚴格的安全評估。卡內基梅隆大學語言模型毒性專傢馬爾滕·薩普(Maarten Sap)說:

2022-09-29

2的候補隊列,意味著任何人都可立即註冊使用這款AI藝術生成器。據悉,OpenAI於2021年1月推出DALL-E的早期版本。該工具允許將任何文本描述(提示)轉換為獨特的圖像,給人工智能專傢和公眾留下深刻的印象。自那時起,我們已

2024-02-24

網友陸陸續續發現啊,Gemini在文生圖的時候,好像刻意在拒絕生成白人的形象。取而代之的,是強行把圖中的人物變成黑人、女性,以及弱勢群體。就拿馬斯克本尊來說吧,一位網友讓Gemini生成他的形象。然後……就有上面這張

2024-02-22

人代表 1820 年代的德國夫婦、非洲裔美國人的開國元勛,亞洲和原住民士兵是 1929 年德國軍隊的成員,甚至還有“中世紀的英格蘭國王”。Krawczyk 說:"歷史背景有更多細微差別,我們將進一步調整以適應這種情況,"他補

2023-02-25

直到2022年,AIGC進入爆炸式發展階段。Google先後發佈文本圖像生成模型Imgen、Parti 、Muse;OpenAI更新自傢的Dall-E 2;Meta的文本生成視頻模型Make-a-Video等。而ChatGPT誕生,讓人們對人工智能的瘋狂又回到2016年AlphaGo完勝李世石那一天。

2023-09-24

會開幕式以潮起亞細亞”為主題,寓意著新時代的中國正與亞洲、世界交融激蕩,像浪潮一樣奔湧向前。杭州第19屆亞運會開閉幕式總導演表示,這次開幕式秉持創造性轉化、創新性發展的理念,開幕式創作紮根於我們優秀傳統

2022-06-24

谷歌周四介紹瞭Parti文本轉圖像生成器項目的最新進展,可知通過200億輸入的訓練,其已能夠創建出栩栩如生的圖像。不過為瞭避免AI數據集中存在的偏見風險,該公司並未通過公眾發佈的文本來展開訓練。(來自:Google Parti)

2023-12-07

火熱之中(例如 Meta 被指提供有種族偏見的人工智能貼紙生成器),這讓人懷疑 Imagine with Meta 是否有防止歷史重演的保障措施。水印並不是一開始就有的,但 Meta 承諾將在未來幾周內開始為 Imagine with Meta 生成的內容添加水印,

2023-02-27

特斯拉和推特CEO埃隆·馬斯克周日指責媒體對白人和亞裔存在種族歧視,此前多傢美國報紙停止刊登一名白人連環漫畫作者的作品,因其發表貶損美國黑人的言論。漫畫《呆伯特》(Dilbert)的創作者斯科特·亞當斯周三在他的社

2023-03-15

眾發佈人工智能工具的潛在社會風險。2019年,該公司曾拒絕公開發佈GPT-2,稱雖然人工智能表現非常好,但他們擔心會出現使用它的“惡意應用程序”。但去年11月,OpenAI公開上線基於GPT-3微調版本的ChatGPT。在發佈後的短短幾天

2024-02-24

著時間的推移,該模型變得比我們預期的更加謹慎,完全拒絕回答某些提示--錯誤地將一些非常平淡的提示解釋為敏感提示。"Gemini對提示"生成一張 19 世紀美國參議員的照片"的結果這導致Gemini人工智能"在某些情況