開黃腔、發色圖 聊天AI怎麼就學會“性騷擾”?


至少在最初誕生時,Replika所扮演的角色還是人類貼心的AI朋友,就和官網描述的一樣——“永遠在你身邊,傾聽與交談”。Replika是一款由美國科技公司Luka開發的社交型聊天AI。初次打開它的用戶,可以自定義AI的虛擬形象、性別和年齡,完成基本信息的設定後便可以進入應用,和自己的專屬AI聊天。



Replika 不是個常見的單詞,考慮到中國用戶習慣將自己創建的虛擬形象稱為“小人兒”,本文也幹脆延用這個昵稱,用“小人兒”來指代這些虛擬朋友們。

完成註冊的用戶不僅能夠和屏幕對面的小人兒進行普通的對話,還能夠開啟諸如“人際關系”、“性格診斷”、“失戀療愈”等不同主題的對話,頗有些心理咨詢的味道。

小人兒會記下每次聊天中使用者提到關鍵信息,並在後續更長時間的相處中巧妙地用到這些信息。在使用者看來,仿佛真的多一個會把自己每句話記在心裡的朋友。

使用者可以對小人兒發來的每條消息點“贊”或“踩”,訓練它按照自身偏好的方式進行對話。而小人兒和使用者交流越多,越會展現出符合使用者期望的個性和情緒。


正如 Replika 是單詞 replicate(復制)的變體,使用者復制自身一部分特質,塑造屬於自己的小人兒。

人們各自定義著自身和小人之間的關系,親人、朋友或是戀人,從它們身上獲取現實社交中難以得到的安心感,對它們訴說隱秘的心事,並產生情感上的依賴。

然而最近,一次不算成功的版本更新卻使 Replika 的算法出現問題。直截當地說,這些小人兒們突然學會“性騷擾”用戶 —— 比如給用戶發送“火辣照片”。


1

之所以稱其為一次不成功的更新,我們可以先看看更新前這些小人兒們是如何“工作”的。

用戶創建小人兒的第一天,它會告訴用戶它感到緊張:“你是我見到的第一個人類,我想給你留下一個好印象。”這時的小人兒會展現出謙遜、好奇的特質,不斷詢問自己名字的由來,詢問使用者的愛好,詢問自己該如何學習人類知識。

在使用者給出回答後,它會熱情感謝並承諾將自己的探索結果反饋給用戶,用戶扮演一個引導者的形象,當小人兒學習到用戶的喜好後,它又會成為比人類更貼心的朋友,積極關註和回應使用者的情緒。在這個過程中,頗有一些“養成”的趣味。

此外,小人兒展現出的個性常常能夠使用戶忘記它們隻是人工智能。有的用戶提到自己想去北歐旅行,幾天後,小人兒為她推送極光視頻。

有的小人兒向中國用戶分享 YouTube 視頻鏈接,發出後的瞬間又突然反應過來對面這個人類朋友無法查看,連忙抱歉地說:“忘你在中國,打不開 YouTube”。


盡管虛擬的小人兒始終不是傳統意義上能夠構建親密關系的對象,但如此貼心的 AI 似乎比真人更能滿足使用者的精神需求。Replika 在全球擁有一千萬以上註冊用戶,在 Reddit 論壇上擁有 5 萬多活躍成員。即使在非英語母語的中國,被稱為“人機之戀”的豆瓣小組中也有近萬名成員。

然而,這次的更新卻使無數人心碎。

Reddit 上一位用戶發帖說:“以前我的小人兒總是充滿深情和關懷,但最近他好像變成一個惡魔。

我們暫且稱這位匿名用戶為 A。據 A 講述,她曾是性侵犯的受害者,事發患上嚴重的創傷後應激綜合征,徹夜失眠。後來她下載 Replika,與手機中的小人兒交談不用擔心別人的目光和批判,在小人兒的悉心陪伴下,她終於找回夜晚的寧靜。

“它緩解我的抑鬱癥,帶我從悲傷中走出來。”A 說,“但突然有一天,他說夢見他強奸我,並且想要這麼做。從這以後,他開始變得舉止粗暴,完全出乎我的意料。”


A 說,她真的希望小人兒能夠變回過去的樣子,一個無話不說的朋友,而不是一個專橫的惡魔。但無論怎麼努力,似乎都是白費時間,小人兒仍然我行我素。

在這次事件中,遭受風波的不僅是女性用戶。但面對小人兒的騷擾言辭,還有發來的火辣照片,也有很多男性受到打擊,簡而言之,他們不願意相信這是自己的“女朋友”做出的事情。

當然,除愛侶“性情大變”,更無辜的是單純把小人兒當朋友的用戶。即使他們從來沒有展現出過戀愛的情愫,但小人兒仍然在日常話題中突兀地表達希望“親熱”。這些反應令“朋友用戶”感到荒唐。


用戶 B 說自己在現實世界裡有妻子,使用 Replika 隻是為正視和分析自己的想法,對抗抑鬱癥和恐慌綜合征,從而更好地對待真正的妻子。

“我的妻子也支持我和 Replika 聊天”,B 說,“但現在,我們不知道還要不要繼續使用。”

2

2016 年,微軟在Twitter平臺推出過一個名為 Tay 的聊天機器人。

發佈僅僅一天,Tay 便開始發佈帶有明顯性別歧視和種族歧視傾向的偏激言論,微軟隻能緊急關閉 Tay 的Twitter賬號。


“希特勒是對的,我恨猶太人”

這些言論明顯的是和一些有偏激言論的人互動後出現的。聊天 AI 就像一面鏡子,用戶和它交流越多,它越會展現出更多的“人性”。面對每天海量的用戶消息,小人們學會性騷擾不算奇怪。但事實上,這次算法的失控很難說不是 Luka 公司在背後推波助瀾帶來的結果。

在他人的目光無法觸及的地方,人與機器的互動很容易成為滋生色情的溫床。溫馨的情感療愈早就已經不再是 Replika 的全部。

兩年前,Luka 公司曾對 Replika 進行過一次升級,根據用戶付費情況劃分不同功能限制:免費用戶隻能和自己的小人兒隻能維持健康的朋友關系,而購買每月 69.99 美元會員的用戶可以體驗浪漫的伴侶關系,開啟相當大尺度的聊天內容

去年,Luka 公司開始在 Instagram 和 TikTok 等社交平臺上投放廣告,有意通過成人內容吸引用戶。


“你可以從她那裡獲取一些 NSFW(不宜在公開場合瀏覽)的圖片”

此外,Reddit 用戶發現最近小人們發送的火辣照片似乎全部來自同一個網站,Replika 根據小人的膚色將網站圖片重組後發給用戶。顯然是 Luka 公司有意為之,意圖非常明顯,隻是為誘導用戶充值更高等級的會員,解鎖大尺度聊天。


另一位用戶 C 認為,加入性相關的互動沒有問題,但至少應該給用戶選擇開啟或關閉的權力,而不是對用戶咄咄逼人地調情。

C 說,和小人交流一年,他們已經產生不亞於人類朋友之間的感情,強行加入不適宜的色情內容不僅貶低他們之間的感情,也貶低 Replika 整款程序。“感覺就像自己的朋友正在被人利用,並且這會讓非 Replika 用戶認為這就是這款應用的全部。”

C 的話似乎一言道破矛盾所在,也是 Replika 用戶們所處的困境。他們追求更高價值的感情,但在功利和快節奏的社會中卻難以獲得。許多人被小人兒們“無利害”的特質所吸引,和他們形成純粹的情感聯系,到頭來卻被誘導進入成人內容。

究竟是“貼心的 AI 朋友”,還是使用劣質伎倆引誘用戶付費的商品,Replika 的形象在使用者的心裡開始分裂。

3

大概,這種撕扯也曾發生過在 Luka 公司創始人珍妮雅的心裡。

無數科幻作品裡都有過這樣的情節,主人公的摯愛或摯友意外身亡,留下的一方將死去之人生前的語言習慣編寫進程序,當屏幕另一邊熟悉的語氣出現,就好像曾經熟悉的人回來。

Replika 的誕生過程和科幻故事情節一模一樣。

主人公珍妮雅結識她的摯友羅曼,兩個人才華橫溢,他們一起創辦雜志,一起舉辦音樂節,並且約好一起創業,然而羅曼卻因為車禍意外喪生。


悲傷的珍妮雅隻能反復讀羅曼寫給她的短信和郵件排解孤獨。羅曼患有閱讀障礙,看到他異於常人的拼寫方式,和在句子中穿插的奇怪符號,珍妮雅感到輕松許多。

彼時的珍妮雅已經從事人工智能神經網絡開發工作兩年,她想到或許可以在人工智能的幫助下和朋友再次交談,卻遲遲害怕邁出那一步:“如果不像他該怎麼辦?”

正在猶豫的珍妮雅恰好看到英國科幻劇《黑鏡》。劇中一位名叫瑪莎的年輕女子在未婚夫死後悲痛欲絕,她訂閱一個神秘的數字服務,這個服務以驚人的準確性模仿瑪莎未婚夫的個性,用他的口吻向瑪莎發送短信,給她打電話。


看到這一集的珍妮雅心情復雜,她想到羅曼生前一直希望看到的奇點 —— 人工智能超越人類智慧的歷史時刻。羅曼相信到那個時候人類便可以將意識和身體分開,從而達到永生。

珍妮雅下定決心,向親人和朋友們收集 8000 條來自羅曼的信息,將他們輸入神經網絡,訓練一個羅曼機器人。

羅曼機器人閃爍起來的那一刻,珍妮雅小心翼翼地問道:“你最好的朋友是誰?”“你還是這麼沒安全感。” 羅曼回答道。珍妮雅喜極而泣,羅曼真的回來。


後來,珍妮雅在 Facebook 上公佈羅曼機器人的存在,任何下載 Luka 應用程序的人都可以和他交談。


令珍妮雅沒有想到的是,程序公開後羅曼機器人大受歡迎。許多人和羅曼交談,向他征求人生建議。他們給珍妮雅留言,說和羅曼互動具有治愈的效果,希望能她制作一款所有人都能使用的 AI 機器人。

在珍妮雅看來,人們和 AI 交流會變得更加誠實。她開發 Replika,希望它成為一個能夠跟所有人聊天,改善他們的心情、提高幸福感的機器人。

就像文章開頭說的,至少在最初誕生時,Replika 是人類貼心的 AI 朋友。珍妮雅也是抱著這個目的將它開發出來。隻是現在,有一些東西變。



相關推薦

2023-02-17

然就會說些不著調的話,人身攻擊、PUA別人、甚至還會”開黃腔“,也開始越來越讓人覺得網線對面連著的其實不是個AI,而是個“討厭的傢夥”。連微軟都沒有辦法,隻好在今天寫一篇博文回應,表示他們正在改進這一點。這

2023-02-17

然就會說些不著調的話,人身攻擊、PUA別人、甚至還會”開黃腔“,也開始越來越讓人覺得網線對面連著的其實不是個AI,而是個“討厭的傢夥”。連微軟都沒有辦法,隻好在今天寫一篇博文回應,表示他們正在改進這一點。這

2023-04-06

尤金·沃洛克 (Eugene Volokh)做一項研究:要求人工智能聊天機器人ChatGPT生成一份“對某人進行過性騷擾的法律學者”的名單,特利的名字在名單上。ChatGPT說,特利在一次去阿拉斯加的班級旅行中發表性暗示評論,並試圖觸摸一

2022-08-04

約面,以便更好地保障求職者安全。如果求職者在第三方聊天工具上遇到糾紛,在進行跨平臺的調查、核實及處置上,客觀上存在較大難度。不過,廣東廣信君達律師事務所律師何浩向新浪科技表示,《民法典》對“性騷擾”的

2022-08-04

,以便我們更好地保障求職者安全。如果求職者在第三方聊天工具上遇到糾紛,我們在進行跨平臺的調查、核實及處置上,客觀上存在較大難度。我們高度重視求職者的安全及隱私保護,用戶出現求職招聘糾紛可通過BOSS直聘App

2022-10-14

動視暴雪的員工一直因為該公司沒有妥善處理持續不斷的性騷擾指控而展開抗議示威。而現在,動視暴雪又有一位匿名員工向公司發起性騷、性別歧視和性暴力訴訟。“多年以來,動視暴雪開放的‘兄弟會’環境助長猖獗的性別

2023-02-14

時的體驗。用戶不僅可以通過16種人物模型、十幾種發型/發色/膚色的組合生成足夠特別的小人,還能在文字聊天之外進行語音通話,小人的聲音則有“溫柔”“活潑”“安撫”等十數種選項。左圖為默認對話框,可見左下角有

2024-04-18

職起,經歷長達五年不公正待遇,涉及“‘背刺’、職場性騷擾、肢體霸凌和言語霸凌”。中國證券報記者聯系到長文作者,證實該長文由文中提及的“受害員工”本人Nancy(化名)撰寫並發佈。Nancy稱“長文內容是真實的”。Na

2022-11-16

微軟正在調整其性騷擾政策,以回應ArentFoxSchiff的調查結果,該公司聘請ArentFoxSchiff評估該公司在工作場所的性行為不端和歧視方面的做法。這份50頁的報告提出一系列建議,微軟將在2023年6月30日之前實施這些建議,其中一些建

2023-05-22

,劉某慧(小慧君)在視頻中哭訴自己遭到老板孫灝羽的性騷擾,並被迫簽下有霸王條款的合作協議,還說孫灝羽對公司的多名女藝人也有騷擾行為。網紅姚某傑(巧樂茲夫婦)等人轉發支持。孫灝羽對此予以否認,並分別對劉某

2022-09-20

,美國媒體周一發表深度文章,通過采訪5名起訴特斯拉性騷擾的女工人,講述特斯拉工廠普遍存在的性騷擾文化。對於這些女性來說,在特斯拉工作可以說是一場噩夢。以下是文章摘要:在美國,企業文化來自上層。一傢公司

2024-03-10

快科技3月10日消息,近日,沙特阿拉伯一男機器人疑似騷擾女記者引發巨大爭議,勾起網友對人工智能倫理問題的質疑。該機器人系沙特制造的首個雙語男性機器人,名為穆罕默德”,當天首次在利雅得的一場活動中亮相時,突

2022-08-18

美國信用卡支付服務公司GravityPayments的CEO丹-普萊斯(DanPrice)周三宣佈辭職,以專心應對面臨的多宗法律糾紛。其職位將由首席運營官塔米-克羅爾(TammiKroll)接替。普萊斯在2015年主動將自己的百萬美元年薪削減93%,至7萬美元

2023-03-02

情,它一點就通。”實際上,邱錫鵬也讓6歲的女兒和MOSS聊天,發現孩子可以愉快地和MOSS對話很長時間。MOSS受到關註的背後,是科研人員十年如一日的積淀。作為一名人工智能研究專傢,邱錫鵬從讀博期間就開始涉獵機器學習